а вот в этом и есть замануха правильного линкатора ;)
лучше делать не 20 вариантов статических текстов ссылок (хотя это тоже достаточно достойный выход), а набор вариантов (те-же 20), потом из которых рандомом ссылка будет собираться из случано выбраных 3-х например. итого, перечисляем 20 прелестей сайта, и знаем, что ссылка будет каждый раз собирется из 3-х случайно выбраных прелестей.
что касается статичности собраной ссылки, то тут только кеширование поможет. можно на стороне сервера, можно на стороне клиента... последний вариант снимет нагрузку с сервера.
но все это довольно сложно в исполнении, по тому что с кешированием возникает вагон подводных камней. например суспенд мертвого сайта, и мгновенное исключение его из перелинковки на всех сайтах системы (гугль не любит битые ссылки на страницах) а это значит что нужно будет по указанию сервера, в одночасье, обновить на всех сайтах кеш... ;) смотри чтоб твой программер не укакался ;)
зы
если хотите написать хороший линкатор, вам следовало для начала мат часть подучить. судя по тому что ты тут пишешь, она у вас хромает. и до заду все твои фишки с пыром тицом и прочей пердой, если сам алго будет гавном, а он у вас как раз экскриментами и попахивает. делаете обычную линко-ферму, которая гуглём вычисляется как 2 пальчика опИсать, и все сайты что в нем участвуют получают пенка.
линкатор хороший написать это далеко не тривиальная задача, одного энтузиазма не достаточно, а вот опыт ваш под вопросом.
ззы
если чем оскорбил, пардон, ничего личного... все сказаное строго про алго
зззы
кстати, я даже не смотрел на сайт, сразу все понял по первым постам в ветке.
нужен правильный алго, стучи в аську, подкину пару идей... ясен уй за интерес ;)
гугль не особо любит в последнее время каталоги, и если за них браться, то есть смысл ручками, а не сервисами, и при каждом сабмите писать новый титл сайта под ссылку (желательно хорошо оптимизированый под требуемые ключевики) да деск новый писать.
линкфармами пользоваться не советую, а если и пользоваться, то очень аккуратно, изучая предварительно его алгоритм.
покупка ссылок хороша.
ручной обмен тоже хорош, но гемороен дюже.
спам никто не отменял. но не наглый, чтоб не терли, гугль обращяет вниимание на срок жизни ссылки. и если ссылку потрут по итогу, то лучше было ее ваще не получать такую.
удачи
в гугле тряски идут, вот и колбасит тебя...
и любит гугл борды, даже очень... но подоптимизировать есть смысл. как минимум избавиться от динамических ссылок в урле. ищите плагины к борде ;)
далеко не всякий виртуал поддерживает сси
лучше в хтаксес вписать
RemoveHandler .html
AddType application/x-httpd-php .html
и приспокойно интегрировать пхп прямо в страницу.
хтаксес значительно чаще доступен, нежели сси.
эээ батенька, тут вы как раз в корне не правы... гугль как раз не любит сквозняки. а если проблема в оптимизации под опредленный кей, так никто не мешает этому кею присутствовать во всех ссылках, просто нужно этот кей, от ссылке к ссылке разбавлять разным текстовым шумом.
+1
а 1000р. я думал что это опечатка... но потом убедился что нет. это внатуре буагага... однозначно
и ваще, что за бред, 3 часа в день? либо работать, либо не работать. ты с хранометром по 3 часа в день будешь мерить???
ваще бред, а не топик... стеб какой-то...
ну, виндозные дедеки никто не отменял...
типичный оффтоп...
имхо, до заду этот фильтр.
и даже если он заработает в полной мере, так этот будет типичный инструмент смешивания с какашками конуретнтов.
когда ждать результатов?
тема старая как какашка мамонта.
токмо раньше эти закономерности отмеряли сезонами (летний, змний итп)
нынче же, с возможностями ппс, это момент можно узреть в рамках суток
да нет разницы
подымалось одновременно 30 доменов в зонах .ком и .инфо
все равно индексировались и получили свой пыр ;)