chin

Рейтинг
0
Регистрация
20.01.2006
Много продуктов на одной странице? Если мало (в пределах 15-20), то можно засунуть все описания в невидимые слои и изменять стиль слоя при нажатии на соответствующий продукт, если описания, конечно, небольшие...

Для этого я пользуюсь способом динамической подгрузки данных на страницу (JS_HTTP_REQUEST) Дмитрия Коретова. Чтобы загружать описание продукта только когда пользователь наведет на него курсор. Но вот тут какраз случай такой:

<img src="/images/img_001.gif" onmouseover="loadInfo('product_name');">

А функция JS loadInfo() бежит на сервер за инфой, потом создает див и пихает в него эту инфу. Вот тут мы столкнулись сразу с двумя проблемами:

1. Реакция роботов на обработчики событий JS (onmouseover)

2. Реакция роботов на динамически создаваемые элементы html.

Так вот... может всетаки лучше wopen()? Или и то и другое? (:

Делаю что-то типа <a href="<?=$PATH;?>/news">news</a>

У меня все просто пропускается через PHP функцию URL('news'). Мне не сложно дописать в ней:

return $url; -->
return 'http://'.$_SERVER['HTTP_HOST'].'/'.$url;
А через PHP нельзя пропустить, передав нужные переменные? Так надёжнее.

Я и так крайне редко использую такие конструкции. И то, в основном в админке.

Не использовать попапы. Никогда. Теряете постителей.

Вы меня не совсем поняли (: я не про те попапы, которые мол когда заходишь на страницу, вылазят и кричат: "купи, продай, дешево, ...". Я про информационные: список продуктов, при нажатии открывается в маленьком попАпе его краткое описание.

Так вот вопрос был в выборе между маленьким popUp-ом и динамически создающемся div-ом.

Словит.

Ок, а-то я боялся (:

еще вопрос

<object classid="clsid:a27cdb6e-ae6d-11cf-96b8-444553540000" codebase="http://fpdownload.macromedia.com/pub/shockwave/cabs/flash/swflash.cab#version=7,0,0,0" width="100%" height="100%" id="flash" align="right">
<param name="allowScriptAccess" value="sameDomain" />
<param name="movie" value="..." />
<param name="FlashVars" value="news=http%3A%2F%2Fmysite.com%2Fnews%2F123" />
<param name="quality" value="high" />
<param name="wmode" value="transparent">
<embed src="..." quality="high" wmode="transparent" width="100%" height="100%" name="flash" align="right" allowScriptAccess="sameDomain" type="application/x-shockwave-flash" pluginspage="http://www.macromedia.com/go/getflashplayer" />
</object>

Google словил такую ссылку (http://mysite.com/news/123) и пошел по ней (о чем я даже и подумать не мог). А как с другими поисковиками?

Logistic:
Что касается Title, то это заголовок страницы, к графической ссылке он отношения не имеет.
<a href="..." title="link">some link</a>
<img src="..." title="my photo">
<td title="blog">this is my blog area</td>

1234567890

Тупо работает... А по-другому никак.

Я уже сам понял, даже и читать не надо... Он просто первый раз аттачит идентификатор, а второй раз уже разбирается...

Короче, заключение.. Location стараться не использовать? Ну, я так посмотрел, что нучно всетаки учитывать User-Agent зашедшего и если это робот, вести себя немного по другому..

Тогда еще несколько вопросов (чтобы не заводить новый топик)

1. Какие лучше ссылки выдавать в контенте сайта, относительные или абсолютные? К примеру:

1.1. <a href="/news">news</a>

1.2. <a href="http://mysite.com/news">news</a>

2. Какой способ "оптимальнее" для поисковиков?

2.1. <img src="/images/img_001.gif" onclick="goToUrl('/news');">

2.2. <a href="javascript:goToUrl('/news');"><img src="/images/img_001.gif"></a>

И вообще, как выходить из этой ситуации, когда мне нужно, допустим, не просто пойти по ссылке, а пропустить через функцуию javascript?

3. Как поступить с окнами popUp? Поисковики их читают?

4. К примеру, мы на лету создаем в JS элемент с каким-то текстом...

var div = document.createElement('div');
div.innerHTML = '<div>some content</div>';
document.body.appendChild(div);

Это будет читаться роботом? Он вообще словит JS?

Спасибо всем.

СКОРПИОН,

Вы конечно извините... Но я не первый день в IT. И не первый год. Я прекрасно знаю все это. Если Вы даете такие советы.. Вы мне не подскажите, как тогда работает встроенный механизм PHP чтобы определить включены куки или нет?

СКОРПИОН:
Если уж совсем неймётся - эмулируйте через жаба-скрип метод POST. Сделайте на каждой странице форму с единственным HIDDEN-элементом, в котором будете хранить идентификатор сессии. Добавьте на ссылки метод onClick...
bondarev.pp.ru:
через Ж :)

...

bondarev.pp.ru,

Я думаю, буду копать в сторону UserAgent, хотя это тоже через Ж... Тоесть, если UserAgent=робот, то сайт будет вести себя совсем по другому.

Спасибо всем.

P.S. Фрагмент из кода самопального(!) механизма сессии форума vBulletin v3.5.2 (такого как тут).

// automatically determine whether to put the sessionhash into the URL
if (sizeof($_COOKIE) > 0 OR preg_match("#(google|msnbot|yahoo! slurp)#si", $_SERVER['HTTP_USER_AGENT']))
{
// they have at least 1 cookie, so they should be accepting them
.....

No comments?

Алексей Пешков

Думаю, Вам полезно будет понять, чем плохи идентификаторы сессии в URI вообще.

А как тогда идентифицировать пользователя с выключеными куками??

почему Ваш самопальный вариант хуже стандартного

Ну и как же по Вашему стандартный вариант определяет, включены куки клиента или нет?

Я могу только сказать почему он лучше (иначе я бы не заморачивался и не изобретал бы велосипеды):

Мой вариант работает исключительно с базой и не забивает /tmp нецелесообразным мусором. А так как мне всеравно надо вести в базе текущие сессии (например, чтобы посчитать количество пользователей онлайн) то какой мне смысл хранить пустые файлы?

Во вторых, я еще раз повторяю: у меня ЧПУ и так как стандартный вариант аттачит id сессии к урлу (автоматически), мне это подходит. Во вторых он пихает id в форму (hidden), который мне тоже совсем не нужен...

И вообще, я задал нормальный вопрос. Если не можете ответить, тогда не говорите не по теме... Извините.

bondarev.pp.ru,

Да, пойдет. Но насчет второго раза не уверен (не связывался).

Тоесть, если робот видет Location, он воспринимает его как очередную "ветку"?
В любом случае, это несколько замедлит процесс индексации, поскольку по таким редиректам роботы ходят не сразу. Новый URL ставится в очередь, и вновь робот может прити и через пару недель. А тут еще и двойной редирект.

Ну если все действительно так как Вы говорите, а именно как я понял: робот ходит не по всем ссылкам встреченым сразу, а по каким-то приоритетам отбирает, а все остальное ставит в очередь... Чтож, тут разумно будет продумать вариант без перекидов.
Скажите, а можно и серверного скрипта по каким-то параметрам определить что это робот? На сколько я понял, это USER-AGENT? Где взять список самых распостраненных роботов?

bondarev.pp.ru:
А с браузерами проблем не возникает? Насколько я помню, например, 4ый экслорер отказывался ловить куку вместе с редиректом. Возможно, он не один такой, просто я с тех пор не сталкивался с такой проблемой.

Не возникает. А кому нужет этот 4-й эксплорер? (:

bondarev.pp.ru:
поисковик будет весьма расстроен, поскольку его-то будет перекидывать на версию без кук. Причем при каждом заходе на новый URL.

Нет, если он (клиент,робот,т.д.) не ловит куки, во второй раз его перекидывает с идентификатором сессии в ссылке. Так что поисковый робот (если он все-же ходит по Location-ам) будет со своим идентификатором, как нормальный пользователь с выключеными печеньками.

И всетаки?

Если поисковый робот заходит на сайт (http://mysite.com/), а там ему ответ:

Server answer:
Location: http://mysite.net/news/123?a=b&c=d

... он пойдет на эту страницу??

Robots.txt?