Не было времени глянуть. И сейчас нет.
Но решение было описано в коллекции примеров ( http://www.egoroff.spb.ru/portfolio/apache/rewriteguide.html ) или в описании модуля ( http://www.egoroff.spb.ru/portfolio/apache/mod_rewrite.html ).
Успехов! Если не выйдет, отпишитесь потом - посмотрим, если будет время.
хм. яснее не стало.
почему "newdomen.ru/1.html" переходит в "www.new-domen.ru/index.php&pa...alog&extpage=1"? С какой целью происходит раскрытие в длинный урл? Ведь надо же наоборот сохранять короткий. Может Вы пример .htaccess'а сюда бросите, чтобы мы поняли, что происходит и зачем. Скорее всего, надо менять правила.
Да это не проблема. Можно и в одном .htaccess'е сделать две секции, т.е. чтобы работали разные правила для разных доменов.
Вот это не понятно, зачем. Или у Вас опечатка в вопросе?
Если нет, то надо честно написать разные .htaccess для обоих сайтов. Т.е. надо сделать, чтобы newdomen.ru/1.html преобразовывался в new-domen.ru/1.html. Вроде бы это Вам надо, так?
Дык это уже начались лингвистические вопросы: оптимизация, раскрутка, продвижение, вывод в топ и т.д. Сейчас начнём путаницу разводить.
Helvete_IN, если мы говорим про комплексное воздействие, то надо детально осваивать оба направления (и внутреннюю, и внешнюю компоненту). Когда Вы говорите, что с оптимизацией всё нормально, а не хватает ссылок с каталогов, то звучит это странно, ведь СЕО не сводится к тупой регистрации в каталогах. Есть как правильная организация ссылочной структуры внутри сайта (что даёт очень большие результаты), так и грамотный обмен, и покупка ссылок. Не очень хорошо писать "проверено СЕмонитором", т.к. это может вызвать лишнюю улыбку товарищей по цеху, но не поможет в Вашем вопросе.
Похоже, Вам нужно нанимать спеца или нам ещё раз пытаться понять Ваш вопрос.
Только что была тема, где собраны хорошие ссылки об этом:
/ru/forum/58402 - рекомендую
тИЦ зависит не от количества переходов на Ваш сайт со страниц поисковика, а от количества и качества ссылающихся сайтов.
Но идея Ваша понятна - поисковики иногда производят замеры качества выдачи, считая количество переходов пользователей на разные сайты. Но, как я понимаю, делают это не часто, и не очень серьёзно учитывают это при ранжировании. Если я правильно понимаю, эти вопросы пока исследуются
ок, я так понял, что надо, чтобы было быстро... тогда можно так вылечить:
1) настроить хттп-сервера, чтобы писал логи от всех сайтов в один файл.
2) написать прогу, например на сях, чтобы анализировала последие 10 Мб этото лога по предложенным выше признакам.
3) настроить крон, чтобы пускал эту прогу раз в минуту.
В результате будет формироваться список плохих айпишников, который уже прикручивается к хттп-серверу (вроде у всех есть такая фича).
Например, для апача делается так:
Плохие IP храним в blacklist.txt в виде
1.2.3.4 b
2.3.4.5 b
3.4.5.6 b
А апачу пишем:
RewriteEngine on
Rewritemap ipmap txt:/path/to/blacklist.txt
RewriteCond ${ipmap:%{REMOTE_ADDR}} =b
RewriteCond %{request_uri} !=/sorry.html
RewriteRule .* /sorry.html [R,L]
Как-то примерно так или можно даже лучше.
Или с iptables сервера поработать, чтобы хттп-сервер не грузить.
Можно почитать http://aplawrence.com/Words2005/2005_05_01.html - там внятные вещи есть.
Нагрузка на сервер будет небольшая (разобрать 10 Мб лога по признаку только IP не долго), а самые активные айпишники будут забанены.
Ещё раз повторю свою точку зрения, что смотреть на регион айпишника - дело не очень хорошее, т.к. можно потерять много потенциальных клиентов, но это дело Ваше.
Желаю Вам успехов в борьбе с досерами!
В автоматическом режиме банить. Если с одного айпи поступило более 100 запросов за минуту, более 1000 за 10 минут или более 10000 за час, то вносить в список плохих айпи на 10 минут, час и сутки, соответственно. Все эти веса правятся руками, чтобы не потерять "настоящих" пользователей, но быстро пресечь атаку.
Потом иногда просматривать список регулярно баненых айпишников, чтобы внести их в "совсем чёрный список".
Как-то так.
Такой подход канает против атак с нескольких активных адресов, но может расширяться и на подсетки, только с правилами предбана надо поиграть.
Хорошего списка айпи России не имею :( Но не верю, что он поможет против атак. Он поможет только потерять клиентов, которые пользуются всякими акселераторами скорости при работе с инетом и т.д...
Есть мысль, что Яндекс меняет критерии данных (т.е. что считать данными, которые надо индексировать). Недавно мне товарищ Платон Щукин ответил примерно так: "Мы тоже очень удивились, что этот сайт не проиндексировался за два месяца. Мы постараемся разобраться в этом как можно скорее. Если дело в настройках Вашего сервера, то мы Вам об этом сообщим".
Это было про сайт с тИЦ за несколько сотен, но нулевым количеством проиндексированных страниц. Никаких спам-проблем у сайта нет. С кодировками всё нормально. Гугл, Рамблер и Апорт быстро съели. Так что жду сейчас, не поменяется ли что-то с его индексацией.
На blogspot.com есть проиндексированные русские блоги, значит, проблема не в их сервере. Может быть есть способ, как-то иначе размещать у них свои блоги. Например, можно спросить у держателей проиндексированных яндексом блогов с этого сервера ( http://www.yandex.ru/yandsearch?ras=1&date=&text=&spcctx=notfar&zone=all&linkto=&wordforms=all&lang=all&within=0&from_day=&from_month=&from_year=&to_day=&to_month=&to_year=&mime=all&Link=&rstr=&site=blogspot.com&numdoc=10&ds= )
Вывод: может Купсино и написать в суппорт яндекса, но лучше сначала убедиться, что эта проблема не решается своими силами, дабы не отвлекать людей ерундой.
Напишите, пожалуйста, чем кончится дело.
Профессиональныю юмор:
Ленина сослали в Шушенское, а он забил на это и, договорившись с Пушкиным, поехал в Михайловское. Соответственно, в Шушенское поехал Пушкин. Именно так произошел первый в истории обмен ссылками.