Ну вот примерно такая же песня у меня при определении Пр большого колличества страниц.
Подскажите господа.
Потребовалось проверить свой сайт на тему на каких страницах какой ПР
Открыл анализатор ПР
Загрузил из файла урлы ( 20000)
Убрал все галочки кроме ПР и запустил проверку.
Само собой все несколько раз висло и падало. Но один раз проверка все же прошла. Тем не менее было проанализировано только 10-12 % от всех страниц.
Можно ли каким либо иным способом БЕЗ глюков это сделать данной программой ?
Бросил в личку :)
В данном случаи я утверждаю :
1. Яндекс их не клеит уже полгода. Точнее склеиает не все страницы. Под склейку попало 10-15 % всех страниц
2. Знаю что качество и колличество влияет. Но в данном случаи разве жирная ссылка может влият на совершенно посторонний запрос ? То есть на запрос который вообще ни в одной ссылке не прописан.
3. В данном случаи сайты и страницы и урлы совершенно одинаковые. Все построено на одном скрипте.
Просто ситуация такая что сайт с самыми жирными ссылками , с большем колличеством беклинков , с лучшей оптимизацией самого текста тегами и мета оказался как раз в заднице.......
Любое сео это именно догадки и анализ в первую очередь !!!
Давно уже пора ловить и стучать по голове владельцам данных помоек.
Желающих я думаю уже предлостаточно.
А у Вас сервис сегодня вообще работает ?
Зашел на страницу http://1ps.ru/web/a1.htm а там каталогов нет совсем.
Да и в мой каталог от вас сегодня ни одного перехода против 50-70 ежедневно
Они Вам и не скажут такое.
Тем более фильтр если и наложен то не на конкретный сайт а автоматом просто понижается виц для сайтов определенной структуры
Была такая же ситуация с похожем ресурсом.
С 5000 скатился на 2000
На мой взгляд Яндекс просто немного изменил алгоритмы выдачи.
Либо наложен понижающий фильтр по типу гугла.
Например в яндексе и гугде у меня 35000 страниц. Яндекс дает 1200 а гугл только 80 в день.