T.R.O.N

T.R.O.N
Рейтинг
314
Регистрация
18.05.2004
Dwarf:
Самый "легитимный" путь для этого, ИМХО, - <noscript>.

Легитивный - да. Откуда появилась идея о AJAX и т.д. - минимальный вес "начальной" страницы. Т.е. пока юзер ничего не "хочет" - вес страницы сводится к минимуму.

Использование noscript, как вы понимаете, все старания сводит на нет.

Всетаки самый реальный способ, это вести бота и юзера по разным страницам.

Dwarf,

Потому, что <читайте выше> - основная задача, не иметь контента, который был-бы сгенерирован, без участия JS. (кроме карты или подобного для ботов)

dkameleon:
Это зависит от организации сайта. У меня, к примеру, робот видит всё
dkameleon:
поисковику не нужна "картинка слева или справа". Это только юзеру такое разве что, а поисковику достаточно проиндексировать один вид товара.

Это я все понимаю, но это все не то. Вы говорите о , по сути, статической странице, где есть разворачивающиеся DIVы и подобное.... С этим все бонально просто.

Я же имел виду, что страница имет полностью уникальный вид и контент. Все это зависит от того, что еще пользователь смотрел, какие настройки ставил, что хотел найти. При этом, очень не хотелось, создавать отдельные контентные страницы для ботов (для отключенной JS)

Dwarf:
T.R.O.N, я б засунул нужный контент в <noscript>

Это не выход.

malls:
Т.е. формально АЯКС тебе просто светит то что от сервака приходит в любой форме.

Если тольок очень утрированно.... т.к. с ервака приходит не просто html, а набор обхестов.

В том и вопрос, очень не хотелось иметь "собраных" страниц.

__SPiRiT__:
всё гениальное просто. Кто то на форуме давно писал про свой сайт на аяксе, который индексируется.
фишка там была в том, что если у клиента работает яваскрипт то у href выполняется действие из onclick, а если ява вырублена (как это у яндекса), то выполняется href=""

Этот вариант был, но тогда львиной доли информации робот просто не увидит.

malls:
этот форум выдается в виде PHP (ну т.е. обычного HTML конечно) со вставками на АЯКСе,

извините конечно, но вы сами поняли что написали.

Это звучит также, как "форум написан на пхп со вставками русского языка".

Еще раз повторю, нет разницы, на чем написан серверный софт.Это дело вкуса. Вопрос во заимодействии:

* юзера и сервака

и

* робота (который не понимает куки и скрипты) и сервака.

malls:
Вот тебе и юзабельность для клиента и нормальная индексация для поисковика. Т.е. то что поисковик не сможет проиндексировать например форму для отправки сообщений никак не сказывается на индексации сообщений уже отправленных.

Почти... Т.к. параметров настройки (если говорить о форуме) очень мало, по сравнению с отобраджениями товаров..

Приятно ведь иметь возможность менять отбражение или параметры без перезагрузки...

Была идея, полностью избавится от страниц с описанием товаров в статическом(псевдо) виде, а делать ее сборку ТОЛЬКО для конкретного пользователся, с учетом его настроек и предидущих действий.

По всей видимости, придется делать 2 сайта.....

malls:
А почему именно АЯКС, чем PHP не угодил?

Вы о чем воще???????

ajax - это один из методов взаимодействия клиента с сервоком. А что работает на серваке, дело - десятое. (хотя я очень не люблю пхп за кривизну)

malls:
Или проблема в том что клиент уже налажал у себя на сайте и теперь просто тупо дыры затыкать приходится, чтоб все не переделывать?

Все будет писаться с нуля...

Pall, malls, для справки, отправка сообщений на этом форуме, реализована именно через ajax.

Это, прежде всего удобно пользователям. ПС и т.д. - это приложение к юзабельности.

PHPExpert,

Смотрите

при входе с двух разных IP

87.250.252.20

87.250.231.9

выдается длина контента, отличная почти в 2 раза...

Может поэтому бот и пробивает, пытаясь найти "чернуху"...

Ищите проблему в "прыжках" контента. Явный глюк...

PS Ненавижу стандартные монстральные движки...

joost:
Разве не приделяют внимания сайтам которые в каталоге?

А вы одежду одеваете, глядя на погоду или календарь?

Ilya Rudomilov:
Сегодня увидел, что по логичному запросу "афиша камчатки" на первом месте стоит не www.afish-ka.ru, а wap-версия! Конечно, тут же подправил robots.txt, прописав host, но напрашивается вопрос, сколько еще такой идиотизм может провисеть?

Если Вы сделали все правильно, то от 2-3 недель, до 2-3 месяцев

Вопрос: почему не сделать все правильно сразу, а тупо идти по граблям????

joost:
както может уберечь от случайного выпадения из индекса Яндекса?

- Стабильный, скоростной хостинг.

- грамотные срипты.

- качественный, уникальный контент.

- постояная работа над сайтом.

RussianRro:
Провел аналогию со многими направлениями в науке
и оказалось все рано или поздно подвергается определенной стандартизации
xml в вебе это уже путь к этому.....

Значит Вы поленились хорошо все проанализировать.

Стандарт существовали, существуют и будут существовать, но пока нет стандарта, предписывающего их исполнять.

Взлянем на малький сегмент стандартов, связанных с веб (HTML, XML, Robots.txt, HTTP...) Как на счет стандартов.?????

Всего: 4849