Если вы сторонник саддиских методов, например таких как предложил cookie, то:
Добавляйте сайт каждую неделю, до тех пор, пока не скажет "нам уже известна ваша страница". :D
Если сторонник методов менее жестоких, то добавьте свой сайт в любой каталог, который достаточно часто посещается "Я", и даёт прямые ссылки, а потом уже добавьте ручками сайт в "Я".
Тогда он ("YA") не сможет отвертеться :D
А что, такой метод слишком суров:
1. Вписать в роботс.ече запрет ходить туда Яндекс;
2. Удалить руками зеркало из базы;
3. Дождаться когда устаканится всё;
4. Добавить заново, но уже с роботс.ече говорящим где зеркало а где нет;
5. Доджаться когда устаканться.
Может конечно не так жестоко, но по крайней мере несколько страниц грохнуть, и тем самым заставить перечитать робота яндекса новый роботс.ече.
Ссылок на новый домен наставить тоже должно помоч.
Поисковым безразличен Java, VB и прочий активный скрипт в коде страницы.
"Защита" от копирования текста - признак полного неуважения к посетителям сайта, как минимум, а как максимум признак того, что владелец сайта не знаком даже с основами интернет серфинга, в лучшем случае видит MSIE раз 150-й.
Это моё мнение.
Оно основывается:
+ Что если зашедший на сайт решит часть текста, например, контактные координаты, сохранить себе в текстовик (записную книжку);
+ Что если у вошедшего на сайт по умолчанию выключены картинки, а вы блокировали правую кнопу, и не даете открыть контекстное меню?
Относительно реальной кражи текста, флэшек [и прочего] с сайта, смотрите софт:
ReGET, а лучше Offline Explorer Pro.
Видимо обсуждение таких вопросов вообще не тема для форума о поисковых системах, скорее тема для форума начинающих кончать веб мастеров.
Собственно именно о данных проблемах я и писал почти год назад:
Форум о поисковых системах > Поисковые системы > Яндекс > Антиоптимизация - помогать немножко
Меня интересовала теория - возможно или нет.
И что мне ответили?
Что это невозможно или маловероятно...
Занятно не правда ли?
Господа, мы по одну сторону баррикад, или часть казачков засланные?
killraty, здесь есть кто разбирается и в CGI и в PERL и даже (о чудо) в C/C++ :)
Глаголь!
Ещё в 2000 году такая идея посетила меня лично и была реализована.
Объект рекламы (тип ресурса): Чат для Новосибирцев.
Место действия: Новосибирск, НГТУ (НЭТИ).
Тип рекламы: надпись WWW адреса синькой от руки из брызгалки на белоснежном снегу (смотрелось с крыльца главного входа в главный корпус так, что аж кликнуть хотелось).
Длина адреса: 8 символов включая точки (.) и косые (/).
Время размещения надписи: 6:30 утра.
Отклик.
Вечер: ~20 посетителей.
Вечер следующего дня: ~7 посетителей.
Значок "~" читать как: "примерно".
Почему "примерно"?
Потому, что замеряли количество набравших адрес именно в той форме, как он был написан, форма написания примерно такая: "zzz.ru/z". По наличию "/z" и делался замер.
Сейчас, когда интернет подраспух и люд проинтернетился отклик может быть больше.
Muxa
совершенно прав, доктор Майоров бессилен, его методика разбита в пух и прах :)
flucky
5 шагов - "стандартный", "буржуйский" копирайтерский подход, вроде: "улучшение качества жизни", который я иногда применяю, что бы подчеркнуть, что тема актуальна, но не без доли абсурда.
В общем, так уж повелось...
Professor
А вот это, правильный вопрос... © Голограмма создателя роботов из фильма "Я робот".
Ответ:
1. Есть некий сайт, причём созданный только ради теста (конечно с виду по нему, это не сказать, там даже своя публика завелась), так вот после внешних воздействий (манипуляция ссылками на этот сайт) сайт начал падать позицией в выдаче по определённому кл. запросу. Падать начал во всей "тройке", не только в Я, который, как известно колбасит в последнее время.
Самое удивительное - новые ссылки на этот сайт содержали "нужные" слова, а сайты, которые болтались "вокруг" по этим же кл. запросам ничего не предпринимали, т.е. осталось постоянным у тех сайтов:
• тИЦ
• CRC html страниц
у испытуемого сайта тИЦ поднялся, но ненамного.
Сайт не описан в yaca, впрочем, как и другие сайты составляющие его "окружение".
2. Кроме того, интересно стало мнение профи о обратной стороне медальки под названием: "оптимизация и продвижение".
Причём второе даже более интересно, чем перовое.
Первое лишь вектор концентрации мысли при генерации вопросов.
Сам то я не оптимизатор, любитель-наблюдатель. Многого не знаю, может потому и сплю хорошо.
Относительно вопроса:
Что категорически запрещено делать с контентом на сайте, с title сайта, с keyword, и т.п.
Что бы вопрос не был слишком размытым, контекст: имеется нежелательный запрос "мишка на севере", нужно сделать, что бы некий сайт ни в коем случае не находился по этому запросу, хотя в его страницах, в контенте есть слова "мишка" и "север", возможно даже словосочетания: "северный мишка", или даже: "мишка на севере".
Как вы понимаете, директивы robots.txt отдыхают, как и noindex в мета.
Уточню:
на странице, на ряду с "северный мишка" и "мишка на севере", есть словосочетание "Кошка на Дашке", при этом по запросу "кошка", "дашка" или "кошка на дашке" страница должна находиться.
Под "находиться", понимается: быть в первых 50 результатах.
Под "не находиться": не присутствовать в первых 500 результатах.
Вот вам уважемый программа, которая с успехом заменяет, изменяет, переименовывает, собирает и разбирает html`ки и тексты:
HOD Text Processor
Программа правда платная, но это решаемо. как - читай на их сайте, ниже по тексту, есть раздел "Для программистов".
Если тебе нужно получить не все возможные, а лишь некоторые, но быстро, то алгоритм таков:
1. разбиваем словосочетание на отдельные слова, помещая каждое слово в массив.
2. ротируем массив (сдвигаем циклически все его элементы влево и право, т.е. элемент 0 в элемент 1, элемент 1 в 2 .... элемент END в елемент 0).
3. Выбираем слова из массива и формируем словосочетание.
Достоинства:
Работает быстро.
Реализуется просто.
Дальнейшее ускорение работы:
Ротация не элементов массива, а указателей на элементы.