дурной вопрос - а еще есть подобные сервисы?
Самая простая защита - хранить ключи на etoken. Практически вытащить оттуда ключи невозможно.
В последнее время яндекс нездорово реагирует на облако тегов. Больше 10 поисковых запросов на странице и в бан уходит весь сайт.
Причем робот нормально ходит, но сайт не в индексе, максимум пару страниц.
Только платону писать.
У меня два месяца назад выпал форум (один из подразделов сайта) из индекса. На форуме нет рекламы, внешние ссылки через внутренний редирект. На форуме всегда уникальный контент. Пишу платону.
первая попытка: выпал форум че за фигня
- с вашим форумом все впорядке сейчас. через 2-3 недели будет в индексе (типа что то было не так но уже все нормально - без конкретики)
вторая попытка через 3 недели: Че за фигня в индекс не попал
- с вашим форумом все впорядке сейчас. посмотрите у него 3 страницы в индексе (а на форуме между прочим 200 .000 тем)
попытка N3 - ну так и будем п...ть может скачем что с форумом не так, я исправлю.
-Разивайте ваш форум и он попадет в индекс!
попытка N4 - форуму 10 лет! 200.000 тем! 20.000 зарегистрированных пользователей. Что я должен улучшить чтобы в индекс он попал???
-Я уже все сказал! Развивайте ваш форум и все будет впорядке
ну и кого после этого невпорядке с вменяемостью..
if User_agent = yandex then redirect fishing_porno_virus_site
Если делать абсолютное зеркало, то ТИЦ склеится если указать основной домен. А вот гугль за основной посчитает более пиаристый.
Задача стоит склеять PR. способ склейки - 301 редирект.
При этом некорректно запрещать сайт от индексации, ибо чтобы выполнить 301 редирект. Но что редиректить если сайт запрещен к индексации? Вроде это логично что ни при каких условиях нельзя запрещать индексацию
Нужно учитывать что если стоит задача склейки ТИЦ - то яндекс (как следует из их хелпа) не склеивает при 301 редиректе, склеивает только зеркала. Так что формально что там для яндекса укажете все равно.
HruPifPaf добавил 29.08.2009 в 01:24
Так делать нельзя. Почитайте хелп яндекса.
Host: может идти только после disallow:
Данная конструкция некорректа. Нужно писать
User-Agent: *
Disallow:
Host: www.site.ru
Я в свое время так наколся и писал по этому поводу в яндекс. Синтаксис тут http://help.yandex.ru/webmaster/?id=996567.
Далее IMHO но для гугля достаточно 301 редиректа, конструкция
User-agent: Googlebot
Disallow: /
Говорит гуглю вообще не индексировать этот сайт, в результате и склейки не будет.
Кроме того ТИЦ при 301 редиректе не склеивается.
HruPifPaf добавил 28.08.2009 в 18:58
Да не все ли равно что в реверсе? их 99% сайтов никогда не прописывает.
HruPifPaf добавил 28.08.2009 в 19:00
В этом случае апач бы выдавал 50x ошибку на неправильную директиву в .htaccess.
HruPifPaf добавил 28.08.2009 в 19:08
Гм. вопросы по этой конструкции. Она означает что внутренние страницы старого сайта будут редиректится на соответствующие внутренние нового. Если вам нужно просто перенести PR (т.е. структуры сайтов изначально были разные) то правильней редирект нужно делать через мод-реврайт.
Если структуры старого сайта и нового одинаковы, то и так пойдет.
Через mod_rewrite так:
RewriteRule .* http://site.ru/? [R=301,L]
Не верно. Добавление а аддурилку не значит что сайт не в бане. Проверено на практике.
Если одно и тоже то и второй забанят. Просто наверное еще никто не пожаловался.
Из сообщения что платон написал причина не в ссылках, а комплексе факторов. За ссылки на другие сайты никто не банит.