Str256

Рейтинг
611
Регистрация
07.01.2008
Интересы
компьютеры, интернет
mark3000:
Str256, Да, тайм аут это вероятное решение, хотя надо будет еще поговорить с программистом на эту тему, возможно будут более удобные решения. Так как все таки в тайм ауте сайт в 5000 страниц будет оооочень долго проверяться. И как следствие каждый скажет "что за тормознутая программа".

Так ведь сами настраивать будут. И потом, с тайм аутом 1 сек - полтора часа проверяться будет. Вполне нормально. Да и те кого большой сайт, наверно более продвинутые тарифные планы, так что там можно указать и 10 раз в секунду.

Lasta:
Менял IP на сервере. Сейчас все работает.

Всё равно результаты различаются. А вы не пробовали указывать юзер-агент браузера?

Ладно я сейчас уезжаю, пока отложим этот вопрос. Да и не понимаю в чём проблема найти другой сайт на неткате. Наунет вообще в июне блокировал бота Яндекса из-за превышения нагрузки - тогда куча сайтов вылетело. После чего в роботсе было прописано: Crawl-delay: 3

Но я так понял, ваша программа не читает его от этого и проблема возникла. Было очень много обращений, вот пример:

04/Sep/2009:01:05:57 +0400]
04/Sep/2009:01:05:57 +0400]
04/Sep/2009:01:05:57 +0400]
04/Sep/2009:01:05:57 +0400]
04/Sep/2009:01:05:57 +0400]
04/Sep/2009:01:05:58 +0400]
04/Sep/2009:01:05:58 +0400]
04/Sep/2009:01:05:58 +0400]
04/Sep/2009:01:05:58 +0400]
04/Sep/2009:01:05:58 +0400]
04/Sep/2009:01:05:58 +0400]
04/Sep/2009:01:05:59 +0400]
04/Sep/2009:01:05:59 +0400]
04/Sep/2009:01:05:59 +0400]
04/Sep/2009:01:05:59 +0400]
04/Sep/2009:01:05:59 +0400]

В среднем там получается 4-е раза в секунду. Настройте, чтобы можно было настроить тайм-аут обращения к сайту и что сканировать не надо. И если проблема повторится, тогда уже об логах и урле поговорим, а как сейчас это может случиться с любым сайтом на виртуальном хостинге. И ещё про Clean-param не забудьте.

Директива Clean-param.
Если адреса страниц вашего сайта содержат динамические параметры которые не влияют на их содержимое (например: идентификаторы сессий, пользователей, рефереров и т.п.), вы можете описать их при помощи директивы 'Clean-param'. Робот Яндекса, используя эту информацию, не будет многократно перезакачивать дублирующуюся информацию. Таким образом, увеличится эффективность обхода вашего сайта, снизится нагрузка на сервер.

Ваша прога её так же проигнорировала.

swim7new:
<meta name="verify-v1" content="cSzlZc12r0LQ9R3BgSE3ePymbyoT6qVaAqO0s3zRopE=" >
а сам файл переместила в папку old http://swim7.narod.ru/old/yandex_4e6d3b1aba997158.txt

Так у вас файл или метатег был?

swim7new:
то, видимо, никакой склейки нашего сайта с клон-сайтом не произойдёт вообще )))

Неприятности и без склейки могут быть. Вы же врядли переделываете все страницы сайта, могут склеиться отдельные страницы - и в выдаче выдаваться не ваша. Или аффилат фильтр.

Нормально захожу. Может хостер какие-то IP заблокировал.

В панеле управления Яндекса - смотреть пункт быстрые ссылки. Там всё написано.

Похоже выдача у мейла совпадает с геозависимыми запросами по Москве(смотрел из москвы). И разнится, если запрос геонезависимый, но не всегда бывает, что и совпадает.

N_N_N:
swim7new, подтвердить вторично у вас не получится. Выдаст что-то вроде "Сайт является зеркалом такого-то" и попросит подтвердить права на сайт клоновода. Когда происходит склейка, склеенный сайт становится неактивным (серого цвета). Никаких манипуляций самостоятельно вы с ним не сделаете

Так склейка ещё не произошла. Удалить файл подтверждения или метатег, что у вас там. Прописать хост. Запросить подтверждение заново - добавить файл/метатег на сайт.

swim7new:
Спасибо, надо будет сейчас этот робот тхт написать и залить в корень - Кста: это исключительно по фтп надо делать?

А в чём сложности? Вроде так: ftp://swim7.narod.ru:ваш_пароль@ftp.narod.ru Кидаете туда файлик.

Дороговато при таком обороте. Из него вычесть затраты, зарплату, аренду, налоги и т.п. И сколько останется? 5-ь лет окупаемости? Можно поднять всё с нуля дешевле. Собственно всё это и так есть у крупных компаний, если что и интересно, то это клиентская база, наработки и проги, сеть собственных сателлитов.

Всего: 15927