Не запускается SSC2, вылетает: Ошибка при инициализации приложения (0хс0000135). Для выхода...жмите ок.
Лично для меня миф, но и полностью одинаковые анкоры не есть хорошо, анкоры должны быть естественными, т.е. искусственное разбавление ключа в анкоре много пользы теперь уже не приносит или приносит значительно меньше, по крайней мере говорю это на своем опыте и результатах анализа сайтов конкурентов.
Спалила тему...
Считывает не все ссылки при фильтре по дате. Купил около 600 ссылок, подтвердил - запустил проверку индексации страницы в диапазоне от 0 до 1 дней назад. Проверил только 386 ссылок.
Пошел в старую версию, благо пока старый диз еще не отключили, там все путем. Пришлось по второму разу гнать проверку.
Обязательно буду! Но я о другом. Фильтр скрипт делает, но мне нужно список ссылок по фильтру скопировать через Crtl-C, а в последней разосланной вчера версии скрипта я такого окошка-мемо, в которое копируются непроиндексированные, в непоте и иже с ними ссылки не обнаружил (именно для ссылок полученных через фильтр, а не по результатам проверки).
Неудобно также то, что нет возможности скопировать в буфер список ссылок отфильтрованных по параметру, например, установленных за последний день.
заменил на oldlook, но все равно не логинится
Обратился за последней версией базы, не получал даже последнее обновление, кажется еще прошлого гола - ответили, что обновлений не будет, топик на этом форуме более не актуален... "обрадовали".
Последние 2 дня начались трудности с разрывом связи скрипта с sape. Т.е. после проверки ссылок, например 200 штук, с интервало в 5 сек. отменить размещение через скрипт не удается, вернее скрипт через непродолжительное время обновляет страницу и пишет, что ссылки удалены, однако в извещениях следы удаления ссылок отсутствуют. Приходится копировать список непроиндесированных ссылок/страниц и удалять через sape.
Раньше такого не было, т.е. можно было час проверять ссылки, а потом спокойно их удалить с помощью скрипта.
И все бы хорошо, только я, например, часто руками смотрю результат, особенно для непота (использую версию, где непот проверялся по точному запросу), ставлю галки и потом удаляю. Теперь значит придется урлы плохих по моему мнению ссылок кидать через буфер в ворд, а потом список загонять в sape и удалять.
Такая вот проблема.
Чтобы больше ссылок в день можно было проверять. Но я так и не убедился на собственном опыте, есть ли действительно в яндексе ограничение в пресловутые 1000 запросов в день на 1 айПи.