Понятно, что это лучше, но контент трогать нельзя - только обрамление.
Естественно, в анкоре будет именно название товара. И только это анкором и будет, с большой вероятностью, поэтому, поскольку товары одинаковые, и анкоры получатся одинаковые, хоть и с полезными словами.
Страниц - много, несколько сотен тысяч. Анкоры все в простейшем варианте были бы одинаковые. Представьте себе десять интернет-магазинов с одинаковыми товарами и категориями товаров, но разным названием магазина и различающимися текстами в некоторых разделах (но не в каталоге товаров и в их описаниях). И вот, на каждом из этих десяти будут генериться на страницах с товарами и категориями одинаковые ссылки на соответствующие страницы центрального сайта (пример ссылки см. в первом посте). Или полезнее было бы, чтобы стояли ссылки не как на источник, а, например, в разделе "см. другие похожие товары" у каждого товара ссылки чтобы были не локальными, а на центральный "магазин"?
А хорошего из этого ничего нельзя получить, никакими ухищрениями?
Мда... Надеюсь, я вовремя и с последнего обсуждения прошло ровно две недели :)
Спасибо, уже нашёл обсуждения, что-то я позабыл про поиск...
Что-то мне подсказывает, что поисковикам глубоко наплевать на валидность верстки... С учётом необходимости использования различных хаков для межбраузерной совместимости сверстать валидно заковыристый дизайн весьма проблематично. Для примера - сколько мне крови попортила вот эта фигня в своё время:
<!DOCTYPE html PUBLIC "-//W3C//DTD XHTML 1.0 Transitional//EN" "http://www.w3.org/TR/xhtml1/DTD/xhtml1-transitional.dtd">
Пока не убрал - понять не мог, почему некоторые CSS-конструкции не срабатывают и непонятные дырки и пустые места то там, то здесь появляются...
Полагаю, сегодня будет немало подобных постов, подкреплённых битыми ссылками...
За методику с проверкой по гуглу только отсутствующих в яндексе спасибо, что-то я не догадался сразу.
А это не понял:
Проясните, пожалуйста, нынешний алгоритм проверки - запрашивается просто факт точного вхождения подстроки у яндекса или гугла? Т.е. делается запрос для поиска по заданному урлу фразы в кавычках, и если что-то нашлось, значит проиндексировано? Если так, то всё понятно.
Хотя мне сначала подумалось, что прога просит у поисковика закэшированную страницу и ищет в ней ссылку сама. Но это, очевидно, очень неэффективная методика для массовой проверки (одного трафика сколько съедено будет), да и кэш, зачастую, обновляется реже, чем индекс (наблюдаю такое, по крайней мере, по гуглу - расхождение в пару недель - обычное дело), однако так можно было бы проверить кроме контекстных ссылок и много чего ещё, например, показать сниппет с соседними ссылками, посчитать, сколько там фактически найдено внешних ссылок и т.п. Но это, как говорится, уже совсем другая история, верно?
А по поводу проблем с SAPE кто скажет что?
/ru/forum/208250;page=2#69
Это я один до чего-то не догадался, или с сапой в самом деле программа на данный момент не позволяет эффективно работать? Если я правильно понял, пока она позволяет только проверять наличие текста на странице, а не ссылки на конкретный сайт, и если я добавлял ссылки с текстом, который и так присутствовал на странице, они тоже не покажутся, как проиндексированные.
Кстати, ещё одна фича придумалась - может, стоит сделать так, чтобы сразу показывались ссылки, которые не проиндексировани ни в яндексе, ни в гугле (т.е. добавить галку "И то, и другое")? Хотя пока в качестве workaround-а можно результирующие списки сопоставлять в экселе...
Pall, про разные индексы я в курсе, собственно это в исходном вопросе и озвучивал... Весь вопрос в том, наблюдал ли кто-нибудь что-нибудь подобное - когда страница не обновляется в основном индексе не "ап-два", а гораздо дольше - два месяца, хотя другие страницы обновляются с ожидаемой периодичностью. Основные подозрения - ненормальный прирост внешних ссылок на внутреннюю страницу, вот и интересует, не фильтр ли это какой-нибудь...