Меняйте по крону robots.txt. Пару дней пожрал, потом разгрузочная неделя :)
Насколько я себе эту кухню представляю, в Юниксе, если скрипт создает новый файл, то владельцем этого файла считается владелец скрипта создателя, то есть файл пользователя nobody не может создать файл, принадлежащий root и если файл принадлежит root, а на нем стоят права RW- --- ---, то прочитать и модифицировать его может только root
Если бы для взлома любого сервера достаточно было права на создание файлов на этом сервере, то это можно было бы сделать через любую учетную запись. Скорее всего проблема не в юниксе, а кривом администрировании.
Индексации глубоко сидящих разделов может помочь их вывод на главную страницу, а для того чтобы на ней не было слишком много ссылок, сделать их вывод динамическим, например с заменой раз в день. Это могут быть например "популярные разделы", "популярные товары", "самые дешевые" и т.д. Короче говоря, подсунуть поисковику путь по которому он может попасть поглубже, а на тупиковых страницах поставить ссылки типа "следующая", "предыдущая".
Если в центральном офисе говорят, что должны, а в местном, что не принимают, то напишите письменный запрос на имя главы местного отделения банка. Они обязаны вам ответить, сославшись на конкретные документы.
Если имеется ввиду процент количества переходов на ваш сайт с первой страницы результатов поиска по отношению к общему количеству показов страницы, то думаю что никак. Конечно зная примерное число запросов по словам за месяц можно что-то прикинуть, но вряд ли цифра будет даже приблизительно близка к реальной.
Я нагонять ничего не хочу, но существуют совершенно не коммерческие тематики. Например вряд ли у вас будет избыток рекламы по теме "стихи", хотя посещаемость этих ресурсов очень большая. Возможно в данном случае рекламу контекстной назвать будет сложно, но если правила Адсенса позволяют, то почему бы и не поставить?
Виновными их ни один суд не признает и лицензию не отберут. Взломы серверов это преступление, совершенное третьими лицами, а они за это не обязаны отвечать. Если в Вашей квартире застрелят соседа, пришедшего к Вам в гости, то Вас не посадят за то, что Вы на него не надели бронежилет и каску :)
Ну это далеко не так. В том же форуме конечно нафлудить могут, но что то я сильно сомневаюсь, чтобы под Юниксом где на все файлы устанавливаются полномочия можно было весь сайт взломать. Например у меня на сервере все скрипты может редактировать только пользователь с рутовскими полномочиями, а каталоги закрыты для доступа из других сетей. То есть для того, чтобы что-то сделать нужно иметь хотя бы два пароля для входа на сервер и рутовский и кроме того сначала умудриться сломать фаервол, чтобы тебя пустили туда по ssh.
Для того, чтобы проиндексировать все страницы робот должен для начала увидеть ссылки на них. Далеко не до всех страниц на больших сайтах можно докопаться. Например у меня в одном разделе 1900 страниц и чтобы дойти до последней, нужно последовательно просмотреть предыдущие. Предположим робот дошел до пятисотой страницы и запомнил ссылку, когда он вернется через несколько дней, то все уже сдвинется на десятки страниц и по запомненной ссылке он будет обнаруживать уже проиндексированные страницы. Так что общий результат может зависеть от прожорливости поисковика. Например у меня в индексе Яндекса на данный момент около 100 тыс. страниц, а у Гугла 800 тыс.
Так и я про то же. Как ни крути, а закон сохранения энергии никто не изменял :) Более того, при нынешних чудесах по раздаче PR страницам, можно вовсе ничего и не заметить, если даже что-то и есть. У меня многие разделы с тысячами ссылок на них имеют PR3, а многие бессылочные страницы PR4. Может это Гугл при обсчете сайта клинит и он просто не переносит веса дальше, но факт есть факт.