домен ru не требует оптимизации
Разницы в оптимизации, халявного или коммерческого хостинга - не очень много. Главное его устойчивость и качество сайта. Остальное, просто вопрос цены.
Вы бредите. Какое отношенеи вИЦ к зеркалам? Перед тем как писать, ссначала пробуйте думать!
А на счет склейки и переклейки, если хотябы сам яша мог однозначно все объяснить. (для случая когда нет никаких явных указаний)
Именно так!
А если серьезно, здесь была инфа от ВВ, что алгоритм отлаживается на яше, а потом переносится на мыло.
Могу конечно шибаться, но они видимо пошли исправлять ошибку GET запросов. Там криво обрабатывался <reqid>. Видимо из-за него не работал нормально счетчик запросов.
Ни схостом ни с запросами ничего не менялось. PHP не использую как класс. Все Perl. Вопрос в том и стоит, что изменения только при GET запросе. До этого, 4 месяца все ок.
Атас просто.
На счет самой "склейки". Под этим каждый понимает свое.
Смысл, для меня, разных статей, в отлове большего количества НЧ по вхождению. При этом делаю так, чтобы не пересекаться с конкурентами.
Если при написании статей, вы задаетесь вопрос о склейке, то могу допустить, что на самом деле это дубли, мало интеренные людям.
Вы же всетаки хотите иметь статьи разные. По сути, как я сказал выше, это "мусор" и от еого качества, для людей конечно, ничего не зависит. Значит нужно только для роботов работать. А значит стоит напустить робота на робота, пусть работает. А человек должне думать.
Теперь о марковских текстах. Суть просто - на основе текста 1 создается другой 2. тескт 2 содержит цепочки смысловых(осмысленных) фраз текста 1, но в произвольном порядке. Очень эффективный метод борьбы со склейкой.
Но еще раз повторюсь, сайт, это продукт для людей, а не роботв. Может над этим стоит думать серьезней.
---------------------------------
Что такое «цепи Маркова»?
Короче говоря, вероятности в случае генерации связного текста можно выбросить за ненадобностью… Алгоритм получается такой:
0) берем текст, разбиваем его по предложениям, а внутри каждого предложения выделяем последовательности из N (допустим, 2-х) слов и пишем в таблицу
1) Берем случайно одно из «первых» слов в предложении, и ставим эту пару как первую.
2) По второму слову в паре выбираем все те пары, в которых это слово идет первым и дополняем текст вторым словом
3) Идем к предыдущему пункту 2, не забывая иногда закрывать предложение (например, парами, которые встречаются в концах предложений)
Вот примерно так. Это дает грамматически связный текст в любых количествах. Для размножения можно использовать и вероятности появления той или иной последовательности, и увеличивать N, выбирая одно следующее слово по предыдущим N-1. И все цепочки слов (здесь: пары) встречаются в реальной жизни, а на пробивку по тройкам и N-кам слов никаких ресурсов у поисковика не хватит.
Vaster,
Ваше творение называется "мусором"
Если по теме, то вопрос склейки дублей, вопрос сложный и далеко не тривиальный.
Если задача создавать "мусор" - возьмите людой алгоритм, который работает с цепями маркова
Вук,
Незнаю как у Вас, а вобще это называется - жизнь. А чтобы ее постичь, старайтесь больше читать умных вещей.
tolik777,
яша ищет по своей базе.
У вас и яшином индексе и с ввв и без?
а в общем случае пишится
<query>запрос <<host="site1.com" | запрос <<host="site2.com" </query>