ну тогда давайте перечислим, что еще надо знать программисту ? начнем с устройства компа ?
а я и не прошу 24часа в сутки
к чему еще придираться будем ?
речь не идет о 8-часовом рабочем дне, этим можно заниматься дополнительно к основной работе.
прекращаю полёт ваших фантазий :) всё намного проще - заказчика не устроила стоимость работ ...
вот поэтому вопрос и закрыт ;)
вопрос закрыт, спасибо всем, кто ответил !
небольшое дополнение ... такая ошибка возникает не только при запросе robots.txt, поэтому вопрос относительно
очень хотелось бы вам (ну и себе) помочь, скажите только - как ?
это я уже понял. только, одно дело посчитать количество, а другое - правильно их собрать. ведь они (ссылки) могуть быть и как "/search/" и как "./search/" Или вобщее "../../../search/".
вот я к чему про вывод списка...
а список ссылок-то где ? которые не "левые" ? я просто тоже пишу нечто подобное, для себя, можно пообщаться ;)
таже фигня, тоже ТОЛЬКО с googlebot.
с поддержкой sweb общаюсь уже долго по этому вопросу. но пока что, к сожалению, безрезультатно. (наверно, потому, что общаемся посредством почты.)
вот такие ответы я получал на мои запросы по этой проблеме :
----------
20 апреля :
Как только вопрос будет решен - мы Вам сообщим.
9 мая :
Если с другими ботами все нормально, то попробуйте поинтересоваться
непосредственно у гугла, чем может быть вызвано такое поведение робота, возможно где на их сайте есть информация по данному вопросу.
16 мая :
Письмо передано системному администратору.
19 мая :
Исправлено, теперь таких проблем возникать не должно.
23 мая :
Передано администратору.
:) с каждым разом ответы всё короче и короче :)