AiK

AiK
Рейтинг
257
Регистрация
27.10.2000
Должность
SEO consultant
Интересы
Astronomy

Хм. Тогда я не понимаю, почему продаются показы, а не время экспонирования. Ведь когда вывешивают рекламу, скажем в метро, не подсчитывают сколько конкретно человек её просмотрит. Известно, что на станции А в день проходит в серднем 80 тыс. человек, а на станции Б - 40тыс. На станции Б реклама будет стоить примерно в 2 раза дешевле. Но от того, что допустим около станции Б расположен стадион, и раз в две недели через нее проходят те же 80 тысяч, цена на рекламу в эти дни меняться не будет.

Александр, а Вы в состоянии вообще хоть как нибудь объяснить ценообразование в банерной рекламе? На мой взгляд они завышены в обоих случаях. Мне что-то подсказывает, что для банеров в результатах поиска CTR как никогда низок. Точнее он тем ниже, чем документы релевантнее.

Более точно - по переменной HTTP_ACCEPT_LANGUAGE, который в частности можно настроить в браузере - в IE это Language Preferences, автоматически меняется при смене текущей локали ОС.

Используй статические страницы. Хотя бы по главным ключевым словам.

Или передавай параметры так, чтобы они в url не светились. Скорее всего Апорт тормозится именно на ?, т.к. например ПХП работает в любой директории

<font face="Verdana" size="2">Originally posted by funsad:
Головой? </font>

Педалями

А зачем?

не вполне согласен с Вами, Александр.

1. От конкурентов Вы скорее всего будете скрывать не идею, а именно код. А его-то как раз в 99,9% случаев можно восстановить опираясь только на видимые результаты. Тут разумнее было бы паролировать директории и чужаков (включая SE, а то не дай бог код стянут ) не пущать.

2. Флэшки же индексировать при помощи клоакинга бессмысленно - т.к. всё-равно придётся создавать HTML версию, которую можно индексировать и легальным способом.

3. Ну, полную копию сайта в обоих случаях ИМХО создавать не обязательно. Достаточно навигацию сделать.

И на объемё особенно не сэкономишь. Код-то страниц для разных поисковиков хранить всё равно на сервере придётся, разве что их в одном скрипте держать можно.

ИМХО клоакинг подразумевает либо спамдексинг, либо "мирное" использование, но с запретом индексации - ибо клоакинг всегда чреват баном.

В предыдущем сообщении под "последними" я подразумевал IP, а не попапы

Технология такая:

1. Определяем IP посетителя

2. Сверяемся с базой IP поисковиков

если это поисковик, то

3. Показываем дорвей

иначе

4. Показываем посетителю либо

а) сообщение об ошибке

б) нормальную страницу

Я пробовал. Но пока что остановился, т.к. для клоаки нужен хороший дорвей. Простейший же скрипт при наличии SSI состоит всего из двух строк кода (понятно по User Agent).

Сами по себе скрипты ничего ценного не представляют - их может сделать даже новичек в perl, в том числе и по IP, и уж бесплатных версий безо всяких попапов в сети полно. А вот базы последних и составляют предмет торговли. НО повторяю - без хорошо индексируемой страницы клоачный скрипт ничего не даёт.

З.Ы: неужели ты уже исчерпала все методы раскрутки и решила заняться спамдексингом?

Я туда ссылку кинул ещё в декабре. По-моему они даже присылали подтверждение, что разместили... Но найти свой сайт я там не смог. На мой взгляд, толку от этого каталога не много - посетителей маловато.

Всего: 3256