D1ma на ваш вопрос уже ответил, но еще добавлю, можете на это, вообще, не обращать внимания. Если ссылки стоят на http://izcom.ru/, то z-eirc.zelcom.ru просто к нему приклеется и поисковики будут выдывать по всем запросам именно http://izcom.ru/.
Времена меняются. Еще несколько месяцев назад можно было взять ВЧ в Яндексе при помощи тысяч спамных анкоров со страниц-нулевок.
Сейчас стратегия меняется, становится более интеллектуальной. Если раньше траст ранк был вопросом веры, то, наверное, скоро уже начнут появляться статьи о его правильном наращивании. Особенно в свете того, с какими "особенностями" приходится сталкиваться при продвижении однословных запросов. (Но это уже отдельная не менее интересная тема, которую тоже стоит поднять).
А адрес сайта какой? my-domain.com вроде как, вообще, не грузится? Укажите адрес, пожалуйста, иначе, никто корректно не сможет ответить на вопрос, в бане ли сайт.
Или ваш вопрос не о сайте, а о том правильно ли работает скрипт? Но тут уже алгоритм его нужно знать. Вам он действительно нужен?
А, вообще, политика rupay вызывает удивление: зачем запускать новую версию сайта, которая является нерабочей? Только чтобы удивить нас новым дизайном? Тогда почему нельзя было встроить новый дизайн в старую версию. Это при том, что новой версии сайта уже полгода.
Когда же нас, наконец, обрадует PayPal полноценными аккаунтами для России? :)
Большое спасибо всем откликнувшимся!
Пока сделали просто: отрубили всех злобных ботов, благо по словам техподдержки количество IP, с которых шел флуд было небольшим. Специалист техподдержки предложил написать скрипт, который будет на время отрубать IP, с которых идет подозрительно много запросов с высокой частотой.
Но тут у нас возник такой вопрос: а как обстоит дело с поисковыми системами? Как сделать по-умному, чтобы случайно автоматически не отключить их ботов? Причем даже речь идет не о внесении всех роботов в "список дружественных IP", а именно о настройке скрипта с учетом поведения поисковых роботов. Ведь у них есть определенные "черты поведения"?
Он как раз установлен!
Что бы это могло значить? Это наверное какой-то шифр :) .
Татьяна, у вас очень расплывчатый вопрос при минимуме информации. Позвольте задать дополнительный вопрос:
- Вы имеете ввиду проверку на непот или вообще степень влияния на продвижение?
Если речь идет о степени влияния на продвижение, то однозначного ответа, вообще, не будет, так как если бы оптимизаторы знали, какая ссылка точно приведет к повышению ВИЦ на столько-то пунктов (да и вообще знали, какой у каждого конкретного сайта ВИЦ), то процесс оптимизации напоминал бы покупку мест в Яндекс Директе.
Или все-таки речь о непоте?
Lupus, спасибо, но запросы все валидные, более того, что мешает грубо, очень грубо парсить сайт, чтобы он лег. Тут уже скрытые поля не помогут.
Антон, вот! Вот это уже похоже на дело - сервер apach, freebsd, есть webmin. Плюс к ограничению соединений необходимо обрубать всех, кто задает запросы с промежутком меньше 1 секунды, и, например, таких запросов больше 10 подряд. Можно сделать так, чтобы сервер запрещал досуп в таком случае на некоторое время?
Есть на сайте поисковые формы, есть формы регистрации, есть страницы вывода рейтингов. Если регистрация закрыта капчей, то поиск и рейтинг без капчи - ну не вставлять же ее везде, где можно.
Этим и пользуются, я так понимаю, написали скрипт, который делает поисковые запросы, а также запросы на отображение рейтингов. В секунду бывает по 60 запросов таких.
Какой сайт, какой запрос и в какой поисковой системе? Без этих данных вряд ли вы получите качественный и корректный ответ.