Не тот нынче студент пошёл, мелкотравчатый какой-то :)
Всё это называется разгильдяйством. Есть куча способов использовать халявные редиректы на известных сайтах. К тому же, Яндекс не так давно связался с платёжной системой, и ИМХО подобное разгильдяйство нынче Яндексу непростительно.
Интересно посмотреть, как долго эта дыра просуществует, и наберутся ли смелости представители Яндекса признать свою ошибку публично...
Ну тады даю вторую подсказку :)
Берешь юрлу похожую на вышеприведённую и запускаешь спамовое письмо на несколько лимонов адресов. Поучаешь какой-никакой приток посетителей и подкручиваешь статистику в Яндексе. :D
spark
юзай alt+F4.
Съесть то он съест, да кто ж ему даст. © не помню откуда.
Есть вероятность, что карту сайта, размещённую на другом домене поисковик воспримет как попытку спама.
tymon
ты скорее всего не прав, т.к. спайдер, впрочем как и любой другой домен не имеет никакого понятия о внутренней структруе сервера.
Kokoc
второй вариант сработает только в том случае, если для того, чтобы попасть в директорию /directory/ нужно набрать в браузере
http://blabla.com/home/u5794/domen.com/www/directory/
Конечно бывают и такие пути, но их создают только с большого перепоя :)
Мнемоническое правило - все пути должны прописываться от той директории, где лежит robots.txt, т.е. от HTTP_ROOT (в твоём случае это /home/u5794/domen.com/www).
Построить карту сайта со всеми страницами, и скормить эту страницу поисковикам. Лучше через ссылку на одной из страниц первого эшелона.
См. мой первый топик.
Всё, что доступно пользователю, будет доступно и для скачивания.
С хорошим анализатором логов это делается на раз.
Для неоптимизированного сайта, доля запросов, с частотой более 30 раз в месяц будет очень маленькая. Их всех можно и вручную проверить.
Конкретики не добавилось.
В чём цель такого запрета?
Кто мешает выполнить не save as..., который насколько мне известно порождает новый запрос к серверу, а выполнить view source и сохранить
полученный результат?
Положить её на машину, октлючённую от сети, без дисковода, клавиатуры и мыши. А ещё лучше, чтобы сеть, о которой машину отключили была 220В.
И это не шутка, а печальная констатация факта - всё что видно в браузере можно сохранить.
Добавлю и я свои пять копеек.
Добится ~10% увеличения посещаемости из поисковиков при таких стеснённых условиях работы оптимизатора можно. В разы - тоже наверное можно, но явно не засчёт автоматизации.
Кроме того, реально надо будет подогнать где-то ~1200 посетителей, т.к. нет никакого способа ограничить приток посетителей из других стран. ~20% составляют посетители из Украины, Беларуси, Казахстана и дальнего зарубежья. Причём процент медленно, но верно растёт. Ещё год назад таких посетителей было 10-12%.
Чтобы поговорить более предметно, нужно иметь в наличии лог вебсервера минимум за месяц. Может так оказатся, что совершенно случайно многие страницы находятся на вторых страницах по различным, и поднятие на пару-тройку строчек может дать ожидаемый эффект...