Для меня вобще удивительно как можно окончательно расчитать бютжет под гугл. Как я понимаю яндекс сильно разбаловал сознание вебмастеров правильно поднимая сайты прямо пропорционально ссылочной масссе. С гуглом же такое не прокатит.
User-agent: * Disallow: /flash/ Disallow: /images/ Disallow: /reading.php Disallow: /404.html
rect.ru/404.htm rect.ru/reading.php?n=11 rect.ru/reading.php?n=20 rect.ru/reading.php?n=2 rect.ru/reading.php?n=10
Ну с /404.htm - тут всё как и надо, так как зхапрет на более длинный урл /404.html
C reading.php - хер его знает, я бы посоветовал продублировать
Disallow: /reading.php
Disallow: /reading.php*
Тут ещё кое что:
Является ли
последним блоком в файле robots?
Совет смены хоста может и правильный, но почему тогда главная страница не проигнорирована?
Оф: По поводу дизайна я бы посоветовал посмотреть сайт на более крупных разрешениях или попросту добавить к колонке с контентом гравитацию влево.
Сколько сайту годиков отроду?
Уник тайтлы - хорошо, но для каждой пиксы писать - это признак нездорового мозга!
https://support.google.com/webmasters/bin/answer.py?hl=ru&answer=35843
ПС В твоём случае сайт скорее успеет вернуться на прежние позиции, чемь письма дойдут до рассмотрения. Гугл в отличии от других ПС моментиально реагирует на изменения контента. Вопросы типа "за что" тоже не совсем уместны! Как говорят было бы за что, так ... Поставил, к примеру, один какой-то тег в хедере HTML и бот просто свернул как на перекрёстке в другую сторону!
Подобные вопросы задают доктору безнадёжно больные люди в надежде на ответ точных сроков выздоровления! Всё что может ответить доктор, что если через пол-года не будет замечено положительной динамики, то ваши шансы не велеки..
Одно делона сколько это логично, а дроугое, как это перемкнёт алгоритмы гугла.
Пока можно исходить из того, что "Новости Город/Новини Місто" он скорее всего воспримет как 4 разных слова. Честно говоря я так и не удосужился разузнать или проверить i на украинской раскладке иммете тот же код в кодировках, что и i в латинице? Возможно это тоже имеет смысл в данных вопросах.
Всё что можно посоветовать в недокументированых на 100% проектах типагугла, так это искать подобные случаи и анализировать на их примере. Разыщи в выдаче что-то подобное и оцени свои шансы.
Скрипты на этом хост аккаунте стоят какие-то?
Возможно в одном из скриптов дыра, создающая бекдор для управления файловой системой. Так как ваш htaccess пересоздаётся быстро, скорее через бекдор залит автоматизированый скрипт для создания этого самого несанкционированого редиректа.
Первым делом рекомендую поставить наинисшие права на корректный или пустой .htaccess (не 000 только!), и поменять пароль на FTP на всякий случай. Но это даже не самое малое, сразу же надо приступить именно к поиску дырки в скриптах!
Вторым делом, писать абузу на сайт, которому сливается трафик. Желательно сохранить логи с сервера и приложить существенные из них, с требованием отрубить аккаунт напрочь или как минимум провести разберательство иначе в следующий раз телега пойдёт в более высшие инстанции. Тут зависит от законов положения сервера, но абузить можно ведь не только хостинг компанию, хоть и следует начать с неё, а провайдера и домен регистратора\реселлера.
Честно говоря, как раз не понял! Слишком запутано было отписано :)
Для этого надо создать следующий robots.txt :
User-agent: *
Allow: /index.php?page
Disallow: /index.php?
но не наоборот.
Ну, собственно раздел форума то Google. На сколько я знаю различия есть. Но про Яндекс - это отдельная история.
Ничего там нет тупого! Там всё чётко документировано.
Вот то, что написано выше, это не только оставляет сомнения, но иногда даже теряет логику. Зачем писать абы что?! :)
Каждый раздел robots.txt начинается с User-agent. отсутствие этой детали не даёт понять вам смысла в упорядочении Allow и Disallow.
Каждый новый раздел заставляет игнорировать значение предыдущего:
Disallow: /katalog1/
User-Agent: Googlebot
Disallow: /katalog2/
В этом примере для поискового робота Googlebot будут запрещены только URL-адреса, включающие /katalog2/.
Allow: нужен в 90% в тех случаях, когда Disallow: перекрывает (или им просто легче перекрыть) целый каталог (или даже сайт), но исключив при этом некоторые URLы.
Allow: /*?$
Disallow: /
В этом примере строка Disallow: / блокирует весь сайт целиком, начиная с корня, строка Allow: /*?$ (которая обязательно должна идти перед Disallow) разрешает доступ ко всем URL-адресам, оканчивающимся знаком вопроса, т.е. после знака ? нет никаких символов.
В примере I, если поменять директивы Allow, Disallow местами, то:
Запрещены все урлы, начинающиеся на /index.php, то же самое, что и /index.php* - звёздочка не нужна..
Разрешены только те, что после знака ? начинаются на page
В примере II лишний Allow и запрещены урлы с началом /index.php
Сам домен, к примеру, разрешён и много ещё чего разрешено, по сути...