Так, кайтинг и виндсерфинг только что отдал. Остались вейки. Так как atton первый заинтересовался отдам эту тему ему.
...Но, аськи в профиле нет и на форуме его сейчас нет.
ortodox77, xxxCosmicxxx, интересна тема вейков? И раз уж вас двое могу дать еще тему роликов...
Уххаха:) "без граматических ошибок"
Убил!
Тема "Велоспорт" заказана.
Тема «дайвинг» заказана.
Ясно. Спасибо.
Кстати, hosting.ua - в очередной раз скажу: не пользуйтесь их услугами:)
Понял. Тогда да, согласен с вами. Просто вы написали "скрипт" - вот я и подумал, что вы имеете ввиду более общее понятие.
А что действительно к Гуглу поступает уже сформированная страница - это скорее всего да, но что-то я не совсем уверен так ли это. Вот как раз восполните мой пробел в этой области: зачем же тогда и как Google индексирует страницы с php-скриптами, к примеру? (у меня однажды на хостинге перегрузка трафика была от того, что Гоша во всю принялся мои скрипты индексить. там конечно непонятно кто виноват - хостеры или я, но пришлось закрывать от индексации целые папки).
Может я конечно ламер, но посмею с вами поспорить немного:
вы утверждаете, что "сборка идет на стороне сервера, пользователь получает готовую страницу, как и поисковик", но в то же время скрипт "в выдачу это не попадет":D Какая разница между php include и прочими скриптами? Ведь это, по факту, и есть скрипт...
Marshal добавил 12.05.2010 в 12:25
Интересно. Ссылочку можно?
Я всегда поражался с того, как некоторые форумчане умеют вникать в суть проблемы😂 Разве ТС писал "посоветуйте софт" или что-то в этом роде?
А по сабжу: да, выдача сепра бывает отличается от API, но не настолько кардинально, чтобы с этим кто-то пробовал бороться... (я имею ввиду, что бывает разница в несколько позиций в одном из пару десятков слов).
Как работают подобные парсеры? В технические подробности вдаваться не буду, так как я их не знаю:) но в двух словах: парсер делают на отдельном выделенном IP (порой даже на нескольких, если запросов так много,что ip-шники необходимо менять) и он посылает запросы к дата-центрам гугла через каждые n-секунд (дабы не прослыть роботом). А уже с самим алгоритмом работы сего чуда и отображением результатов пусть работают ваши программисты (или вы, если этим занимаетесь).
Файл скрипта потом от индексации просто закройте в robots.txt.
А если не скриптом, но при помощи include загружайте этот контент с другого файла, который в robots.txt для User-agent: Googlebot закрыт. Вот вам и <noindex> для Гоши.
Да, почитал. Спасибо.
Вот, только в той теме обсуждают в основном нравится или не нравится дизайн и как всем непривычно теперь на это смотреть. /*Если честно, создается впечатление, что не на сео-форуме тема создана, а на рынке*/
Ведь основной вопрос, который, как я понимаю нужно поднимать сейчас, так это как сие "чудо креатива Гоши" будет воспринято людьми и как это повлияет на раскрутку. К примеру, если люди начнут пользоваться поиском по времени индексации страниц, то очень актуальной становится тема постоянного наполнения сайта. А может быть просто обновления? Вот как вы думаете, к примеру, какая выдача в серпе при выставлении флажка "за последние 24 часа"? Это последние страницы, что переиндексировались (проиндексировались) Гошей за 24 часа или же новые страницы, что за сутки поступили в базу данных Гугла? А "прямо сейчас"?
А что вы думаете по поводу "колеса обозрения"?
Только, прошу вас, не нужно сообщений типа "а мне нравится", "а меня раздражает", "ой, какая прикольная штука". По делу, господа, по делу говорите...