Ну не я первый эту тему помянул. А если и помянул то только с констатацией факта что за много лет так ничего и не выросло.
Офтопик. На днях предложили вакансию верстальщика на платежные терминалы. В требованиях - опыт работы с клиентским XSLT + стандартный набор. Зарплата 30.000 по мск. Долго будут искать.
лучше чем обычные, потому что XSLT позволяет сделать намного больше чем JS. Те же ссылки, с которых все началось, они засечь не в состоянии да и любой контент спрятать или показать нет проблем.
UPD лучше чем обычно при прочих равных естественно.
Это за 15 лет с момента выпуска IE5 и за 10 с выпуска FF. Смысла разбираться в причинах имхо нет никакого.
Технология оказалась красивой, но увы бесплодной. Особенно ясно стали размножаться json-шаблонизаторы, причем и на клиенте и на сервере. Единый шаблонизатор на клиенте и сервере - это мечта. Жаль только что в реальности получилась обычная шаблонная мерзость и разнобой.
У вас много примеров актуальных сайтов, с исполнением XSLT на клиенте? Я ни одного не знаю. Пару лет назад мог перечислить 3-4. И это почти за 15 лет с момента запуска технологии.
На сервере тоже как-то почти не прижился, несмотря на то что мы с вами его очень любим :)
Способ не подходит по причинам, которые указал выше. Мне бы хотелось, самому контролировать то что ему должно быть известно и то что ему не должно быть известно. Так как это было и c JS и с Ajax до поры до времени.
Я думаю, что тема мертвая. http://erum.ru типа памятника на могиле XSLT-иллюзий.
если у меня паранойя, это не значит что за мной никто не следит (с)
А если нет Google Anal?
Я пожалуй форсирую эксперимент http://erum.ru/116.htm
Вы сами писали о трудозатратности операции анализа JS. Прикиньте во что выльется в динамике отправка всех событий скопом и анализ того что из этого должно получиться. А потом наверните на это асинхронные события. Если они в ту степь пойдут, у них 99% мощностей только на это будет работать, я так думаю
Мэтс пишет, что скрипты выполняются в определенных ограничениях. Я хочу понять где эти ограничения.
То что показывают нам и то что знают про нас - это две большие разницы. И уже совсем другое дело - то как все это учитывается.
Старая песня о главном. Яндексу/Googl'у лучше знать что нужно учитывать, что не нужно. На этом их бизнес держится.
А юзеров тоже в Google делают?
Не было бы вопросов, если бы речь шла о подгрузке AJAX по onload, а вот откуда боты понимают что все что может быть кликнуто (или mouseover'нуто или ...) должно быть кликнуто, и ссылки которые появятся после этого (как в примерах выше) должны быть проиндексированы, я не знаю. А вы?
Вот тут вы не вполне правы. Яндекс давно ввел noindex. Хотя не факт, что этот контент никак не учитывается.
http://jsfiddle.net/5zF7D/1/ !! jquery.1.9
http://jsfiddle.net/5zF7D/2/ - !! jquery < 1.9
Ну тогда вообще теряется всякий смысл игры в прятки с ботами. И вообще отпадают все вопросы.
Миныч конечно голова, но Matt Cutts три года назад однозначно пообещал, что если будет нужно, они будут учитывать JS-ссылки в ccылочном ранжировании. С Robots.txt тоже не просто. Если страница на которой отображается закрытый контент сама не закрыта от индексации, то логично было бы все ее содержимое пихать в поиск или по крайней мере учитывать, что на 1К оргиниального контента приходится 20К неоригинального и такие страницы можно клеить. И я боюсь как раз этого.
Сегодня этого нет, а что будет завтра никто не знает.