AiK

AiK
Рейтинг
257
Регистрация
27.10.2000
Должность
SEO consultant
Интересы
Astronomy

Не тот нынче студент пошёл, мелкотравчатый какой-то :)

Всё это называется разгильдяйством. Есть куча способов использовать халявные редиректы на известных сайтах. К тому же, Яндекс не так давно связался с платёжной системой, и ИМХО подобное разгильдяйство нынче Яндексу непростительно.

Интересно посмотреть, как долго эта дыра просуществует, и наберутся ли смелости представители Яндекса признать свою ошибку публично...

Переходы, наверное, считают

Ну тады даю вторую подсказку :)

Берешь юрлу похожую на вышеприведённую и запускаешь спамовое письмо на несколько лимонов адресов. Поучаешь какой-никакой приток посетителей и подкручиваешь статистику в Яндексе. :D

spark

юзай alt+F4.

Все равно ведь, должны поисковики съесть?

Съесть то он съест, да кто ж ему даст. © не помню откуда.

Есть вероятность, что карту сайта, размещённую на другом домене поисковик воспримет как попытку спама.

tymon

ты скорее всего не прав, т.к. спайдер, впрочем как и любой другой домен не имеет никакого понятия о внутренней структруе сервера.

Kokoc

второй вариант сработает только в том случае, если для того, чтобы попасть в директорию /directory/ нужно набрать в браузере

http://blabla.com/home/u5794/domen.com/www/directory/

Конечно бывают и такие пути, но их создают только с большого перепоя :)

Мнемоническое правило - все пути должны прописываться от той директории, где лежит robots.txt, т.е. от HTTP_ROOT (в твоём случае это /home/u5794/domen.com/www).

Чего сделать-то?

Построить карту сайта со всеми страницами, и скормить эту страницу поисковикам. Лучше через ссылку на одной из страниц первого эшелона.

См. мой первый топик.

Всё, что доступно пользователю, будет доступно и для скачивания.

так это выянить - тоже недетская работа.

С хорошим анализатором логов это делается на раз.

Для неоптимизированного сайта, доля запросов, с частотой более 30 раз в месяц будет очень маленькая. Их всех можно и вручную проверить.

Конкретики не добавилось.

В чём цель такого запрета?

Кто мешает выполнить не save as..., который насколько мне известно порождает новый запрос к серверу, а выполнить view source и сохранить

полученный результат?

Подскажите, пожалуйста, как сделать так, чтобы вэб-страницу невозможно было сохранить, абсолютно.

Положить её на машину, октлючённую от сети, без дисковода, клавиатуры и мыши. А ещё лучше, чтобы сеть, о которой машину отключили была 220В.

И это не шутка, а печальная констатация факта - всё что видно в браузере можно сохранить.

Добавлю и я свои пять копеек.

Добится ~10% увеличения посещаемости из поисковиков при таких стеснённых условиях работы оптимизатора можно. В разы - тоже наверное можно, но явно не засчёт автоматизации.

Кроме того, реально надо будет подогнать где-то ~1200 посетителей, т.к. нет никакого способа ограничить приток посетителей из других стран. ~20% составляют посетители из Украины, Беларуси, Казахстана и дальнего зарубежья. Причём процент медленно, но верно растёт. Ещё год назад таких посетителей было 10-12%.

Чтобы поговорить более предметно, нужно иметь в наличии лог вебсервера минимум за месяц. Может так оказатся, что совершенно случайно многие страницы находятся на вторых страницах по различным, и поднятие на пару-тройку строчек может дать ожидаемый эффект...

Всего: 3256