О mod_rewrite робот даже не знает. Судя по тексту письма есть редирект яваскриптом гдето, или метой, робот такие не переваривает и обижается.
Допустимо - mode_rewrite, header("Location:")
Как релевантность в таком случае считать? чтобы попроще и не замедлить работу ( для рассчёта разницы позиций придётся джойнить таблицу индекса ещё раз )
и что, раз другой урл - значит это другая страница.
1) Фактически поисковик говорит что на этой странице много информации о поисковом запросе, пользователь попадая на страницу этой информации не видит и считает что поисковик работает плохо, та же ситуевина что и с дорами.
2) Робот выдавая ссылку на страницу ранжирует её в соответствии с релевантностью ключевой фразы, но видимость текста не проверяет и если этот скрытый текст сильно влияет на релевантность по запросу, то вы накачиваете её, обманывая поисковую систему.
Насколько я знаю гугл банит даже за текст мелким шрифтом.
Это скрытый текст, забанят если нельзя никакими действиями пользователя этот текст прочитать.
Т.е. если у вас менюшка, при раскрытии которой текст виден, то всё в поряде, а если текст скрывается сразу после загрузки страницы, так что юзер его уже никак не увидит, да ещё и в тексте кейворды, то бан обеспечен.
А с аяксом какие проблемы могут быть? Он не только юзерам полезен, но и кучу мусора от робота скрывает=)
Была идея новый язык придумать из примитивов, только базы нет теоретической.
Где можно почитать чтонибудь удобоваримое, без заморочек
А что, владельца домена сменить так сложно, оставаясь при этом фактическим владельцем сайта?
да уж, на лекциях мне такого хватило=)
Я приводил пример про хорошего бегемота, собственно вся тема изза этого и началась. Никакими оптимизациями не заставишь яшу считать бегемота хорошим, если в описании бегемота нет слова хороший, и к тому же хороший бегемот не один=)
Эксперимент продолжается, как только сайт появится в поиске попрошу его забанить, отпишусь о результатах=)
О тех кто не отличит пессимизацию от бана речи не идет=) Самые обидные выпадание - изза яшиных приступов.
Ну эксперименты это не отменит, достаточно разбить процесс оптимизации на шаги сгруппированные по потенциальным банам и на каждую гипотезу делать отдельный сайт и стучать тут же на него, там вам и ответят есть ли причина бана или нет.
А ведь даже профессионал не всегда найдёт причину, не раз поднималсь темы о банах по человеческомуфактору.
Ну можно было бы хотябы сделать сервис просто со списком забаненых сайтов, я гдето около 10 писем написал с одним вопросом - забанен сайт или нет.
Кстати дорвейщикам то чем это поможет