Спасибо за ответ, да я тоже так подумал про контент. Да как писал выше MORDA10 он под фильтром.
А фильтр получил за переспам ключей, дескрипшн и тайтл - там были ключи. + к этому дублей много было robots.txt забыл кинуть.
Angelys добавил 27.04.2011 в 19:43
Да спасибо, за совет воспользуюсь им .
на картинку нажмите, она увеличится.
Спасибо . Все работает
дубли все закрыты в robots.txt
все зависит от того какие у вас теги, если автогенераторы то лучше убрать. Если нормальные теги и у вас хороший СДЛ то можете оставить.
Оно работает но ссылки ЧПУ тоже перенаправляются на главную страницу /
Спасибо за ответ .. вы немного не поняли ..
надо перенести test.ru/index.php?тут_все_что_было_после_знака_вопроса
на test.ru
Кто знает, как быстро поисковики удаляют закрытые в robots.txt ссылки ? в гугл вебмастере пишет что запрещено а в выдаче есть
он уже накрыт, они восстановили поисковую выдачу ... причем старую 2-3 дневной давности. У них накрылась цепная реакция взаимодействия ботов. Какой то гуру программист, что то не так сделал и пошло. До сих пор ничего не восстановилось, ушло с основной базы много страниц и выдача с запросом host: and site: отличаются + через яндекс вебмастер. Все накрылось и думаю минимум на день еще может два так как были праздники.
а гугл тем временем радует 🍿
з.ы
и добавлю, скорее всего это был все таки АП, но ап был из новых проиндексированных страниц.
в любом случае ждать до завтра.