Для этого я пользуюсь способом динамической подгрузки данных на страницу (JS_HTTP_REQUEST) Дмитрия Коретова. Чтобы загружать описание продукта только когда пользователь наведет на него курсор. Но вот тут какраз случай такой:
А функция JS loadInfo() бежит на сервер за инфой, потом создает див и пихает в него эту инфу. Вот тут мы столкнулись сразу с двумя проблемами:
1. Реакция роботов на обработчики событий JS (onmouseover)
2. Реакция роботов на динамически создаваемые элементы html.
Так вот... может всетаки лучше wopen()? Или и то и другое? (:
У меня все просто пропускается через PHP функцию URL('news'). Мне не сложно дописать в ней:
Я и так крайне редко использую такие конструкции. И то, в основном в админке.
Вы меня не совсем поняли (: я не про те попапы, которые мол когда заходишь на страницу, вылазят и кричат: "купи, продай, дешево, ...". Я про информационные: список продуктов, при нажатии открывается в маленьком попАпе его краткое описание.
Так вот вопрос был в выборе между маленьким popUp-ом и динамически создающемся div-ом.
Ок, а-то я боялся (:
еще вопрос
Google словил такую ссылку (http://mysite.com/news/123) и пошел по ней (о чем я даже и подумать не мог). А как с другими поисковиками?
1234567890
Я уже сам понял, даже и читать не надо... Он просто первый раз аттачит идентификатор, а второй раз уже разбирается...
Короче, заключение.. Location стараться не использовать? Ну, я так посмотрел, что нучно всетаки учитывать User-Agent зашедшего и если это робот, вести себя немного по другому..
Тогда еще несколько вопросов (чтобы не заводить новый топик)
1. Какие лучше ссылки выдавать в контенте сайта, относительные или абсолютные? К примеру:
1.1. <a href="/news">news</a>
1.2. <a href="http://mysite.com/news">news</a>
2. Какой способ "оптимальнее" для поисковиков?
2.1. <img src="/images/img_001.gif" onclick="goToUrl('/news');">
2.2. <a href="javascript:goToUrl('/news');"><img src="/images/img_001.gif"></a>
И вообще, как выходить из этой ситуации, когда мне нужно, допустим, не просто пойти по ссылке, а пропустить через функцуию javascript?
3. Как поступить с окнами popUp? Поисковики их читают?
4. К примеру, мы на лету создаем в JS элемент с каким-то текстом...
Это будет читаться роботом? Он вообще словит JS?
Спасибо всем.
СКОРПИОН,
Вы конечно извините... Но я не первый день в IT. И не первый год. Я прекрасно знаю все это. Если Вы даете такие советы.. Вы мне не подскажите, как тогда работает встроенный механизм PHP чтобы определить включены куки или нет?
...
bondarev.pp.ru,
Я думаю, буду копать в сторону UserAgent, хотя это тоже через Ж... Тоесть, если UserAgent=робот, то сайт будет вести себя совсем по другому.
P.S. Фрагмент из кода самопального(!) механизма сессии форума vBulletin v3.5.2 (такого как тут).
No comments?
Алексей Пешков,э
А как тогда идентифицировать пользователя с выключеными куками??
Ну и как же по Вашему стандартный вариант определяет, включены куки клиента или нет?
Я могу только сказать почему он лучше (иначе я бы не заморачивался и не изобретал бы велосипеды):
Мой вариант работает исключительно с базой и не забивает /tmp нецелесообразным мусором. А так как мне всеравно надо вести в базе текущие сессии (например, чтобы посчитать количество пользователей онлайн) то какой мне смысл хранить пустые файлы?
Во вторых, я еще раз повторяю: у меня ЧПУ и так как стандартный вариант аттачит id сессии к урлу (автоматически), мне это подходит. Во вторых он пихает id в форму (hidden), который мне тоже совсем не нужен... И вообще, я задал нормальный вопрос. Если не можете ответить, тогда не говорите не по теме... Извините. bondarev.pp.ru, Да, пойдет. Но насчет второго раза не уверен (не связывался). Тоесть, если робот видет Location, он воспринимает его как очередную "ветку"? В любом случае, это несколько замедлит процесс индексации, поскольку по таким редиректам роботы ходят не сразу. Новый URL ставится в очередь, и вновь робот может прити и через пару недель. А тут еще и двойной редирект. Ну если все действительно так как Вы говорите, а именно как я понял: робот ходит не по всем ссылкам встреченым сразу, а по каким-то приоритетам отбирает, а все остальное ставит в очередь... Чтож, тут разумно будет продумать вариант без перекидов. Скажите, а можно и серверного скрипта по каким-то параметрам определить что это робот? На сколько я понял, это USER-AGENT? Где взять список самых распостраненных роботов?
Не возникает. А кому нужет этот 4-й эксплорер? (:
Нет, если он (клиент,робот,т.д.) не ловит куки, во второй раз его перекидывает с идентификатором сессии в ссылке. Так что поисковый робот (если он все-же ходит по Location-ам) будет со своим идентификатором, как нормальный пользователь с выключеными печеньками.
И всетаки?
Если поисковый робот заходит на сайт (http://mysite.com/), а там ему ответ:
... он пойдет на эту страницу??
Robots.txt?