Свой сайт, который уже долго ведешь, сложно окинуть свежим взглядом. В своих иной раз натыкаюсь на казалось бы очевидные ляпы, ну никак не мог не заметить, однако факт. Поэтому и советовал отдать на аутсорс, не рекламы ради..
Проверьте настройки CMS, в том же Вордпрессе есть галочка "Запретить индексацию поисковыми системами" или типа того. Или киньте в личку урл, посмотрю сайт..
Закажите аудит у опытных товарищей. Бесплатно разбираться с вашим сайтом никто не будет серьёзно - работы много. Или самостоятельно, шаг за шагом, дубли, исходящие, взлом, доступность, мета-тэги, уникальность, тошнота, поведенческие, анкоры, доноры и т. д.
Скорее всего переоптимизировали (переспамили) посадочные страницы, да еще и анкоры небось с точным вхождением все. На откровенное "пропихивание" яша так и реагирует.. убирайте переспам, разбавляйте анкоры и будут позиции.
Эффект будет, только отрицательный. 99% вероятность, что сайт зафильтрует гугл, а потом и яша подтянется. Прогоны по 100500 линкопомоек давно не работают, ищите кто предлагает закрытые и вручную отобранные ресурсы - там может еще быть небольшой выхлоп в виде десяточки тиц и при грамотных анкорах - рост позиций. Как уже написали, намного надежней и главное в итоге дешевле купить хороших ссылок в той же сапе. Каких именно - зависит от целей.
Значит, что-то не так. АГС - фильтр автоматический, после устранения ошибок снимается сам, без всяких писем. Причин много, дубли, заголовки, кривые плагины, ошибки в настройках, взлом и тд и тп. Копайте, исправляйте, пройдет.
Наиболее вероятно - вернется через недею-две, яша тормозной.
На сайте грубых ошибок нет, проверьте доступ с разных айпи на всякий случай.
ЯВМ ошибок доступа не пишет?
Если не вернется - обращайтесь, будем "копать" глубоко, так как это похоже на АГС. Не бесплатно (работы много), но не дорого.
Удачи!
Директива переводится как "Запретить индексировать любые страницы, заканчивающиеся строго на index.php". Надо сайт смотреть, но вполне возможно, что запретили главную. А вообще, ЯВМ в помощь, там можно проверить что запрещено в роботсе.
1. Убедитесь, что сайт доступен роботам Яндекса и Гугла. Для этого зарегайте сайт в панелях вебмастера в обоих поисковиках, через пару дней будет более-менее полная информация. Если есть ошибки с доступом - отрапортуют.
2. Создайте плагином или сторонним сервисом карту сайта (sitemap.xml), положите ее в корень сайта.
3. В robots.txt добавьте директивы Host: и Sitemap:
4. Поищите дубли контента и запретите их в том же robots.txt
Пару апов - и вуаля! =)
Если вылетают действительно качественные страницы (в чем я сомневаюсь, бо тысячами создавать _качественные_ страницы - крайне трудоемко) - ищите взлом. ЯВМ может показать только скрипты вируса, а если просто ломанули и вставили в шаблон ссылочки - найдете только вручную или той же Ксеной прогоните на предмет исходящих ссылок.