А что мешает набрать запрос "Корпус для Nokia 5700" и посмотреть на сайты в топе?
Ничего плохого не будет, конечно же. Если контент страницы отличается хотя бы на одно слово, ничего не зафильтруется и не поклеится. 5% тем более достаточно.
XML недостаточно, с TOR постоянно вылазит ошибка "Access violation at address 00404788 in module 'YCCY.exe'. Read of address 00000010". Из-за чего прога виснет и приходится перезапускать.
P.S. Теоретически массово проверять можно через livejournal. Можете его прикрутить вместо умершего go.mail.ru?
#lex#, когда примерно планируется восстановление программы?
P.S. Может кто подскажет пока временную альтернативу? Не плагин к FF, а именно нечто, что позволяет импортировать свой список урлов и получить на выходе проиндексированные/не проиндексированные для яши/гугла.
Или так - http://wap.go.mail.ru/search?q=url%3D%22www.ya.ru%22|url%3D%22ya.ru%22
Плохого точно ничего не будет. А вот насчет хорошего, это уже спорный вопрос.
В теории, если страница донора и акцептора одной тематики, то это должно влиять положительно. В данном случает тематикой в какой-то степени можно назвать домен или название фирмы в околоссылочном. Или можно назвать это не тематикой, а частичным пересечением контента донора и акцептора, пускай и всего на одно слово.
P.S. Хотя пересечение контента в околоссылочном можно сделать гораздо больше. Вариант с доменом/названием самый простой.
Система принимает сайты, участвующие в биржах ссылок?
Disallow: /*a$
Закрываем все страницы по шаблону "www.site.ru/[любой текст]a", т.е. заканчивающиеся на букву "a" и без слэша в конце.
Правда, есть один нюанс. Если таким образом закрыть все буквы, закроется всё что не заканчивается на слэш: .php, .html, .jpg и т.д.
Если такие страницы/картинки нужны, придется их прописать в Allow.
P.S. Почитайте http://help.yandex.ru/webmaster/?id=996567
Была подобная проблема, яша сам вдруг нашел страницы без слэша, хотя 100% что ссылок на них нигде не было.
Решил проблему закрытием таких страниц в роботсе. Т.к. у меня все урлы с id, т.е. числовые, получилось вот такое:
Disallow: /*0$
Disallow: /*1$
Disallow: /*2$
Disallow: /*3$
Disallow: /*4$
Disallow: /*5$
Disallow: /*6$
Disallow: /*7$
Disallow: /*8$
Disallow: /*9$
Если у ТС все урлы со слэшем, можно поступить аналогично, только дописать буквы. Главное не закрыть ничего лишнего...
Нет, статический ip.
Настройки задержки есть, не так давно опция появилась. Раньше просто ограничивал скорость приложению, 25-30 кбайт/сек и никаких каптч.
В день собирается около 2к запросов.