Ayavryk

Ayavryk
Рейтинг
209
Регистрация
11.10.2003
богоносец:
Это свежее вливание в могилу XSLT-иллюзий?

Ну не я первый эту тему помянул. А если и помянул то только с констатацией факта что за много лет так ничего и не выросло.

Офтопик. На днях предложили вакансию верстальщика на платежные терминалы. В требованиях - опыт работы с клиентским XSLT + стандартный набор. Зарплата 30.000 по мск. Долго будут искать.

DiAksID:
что поисковики распознают и индексируют XML с html-корнем это загадкой не было ;), но как ранжируют?

лучше чем обычные, потому что XSLT позволяет сделать намного больше чем JS. Те же ссылки, с которых все началось, они засечь не в состоянии да и любой контент спрятать или показать нет проблем.

UPD лучше чем обычно при прочих равных естественно.

богоносец:
Ну не 15 наверное, писаниям.w3c и то меньше.

Это за 15 лет с момента выпуска IE5 и за 10 с выпуска FF. Смысла разбираться в причинах имхо нет никакого.

Технология оказалась красивой, но увы бесплодной. Особенно ясно стали размножаться json-шаблонизаторы, причем и на клиенте и на сервере. Единый шаблонизатор на клиенте и сервере - это мечта. Жаль только что в реальности получилась обычная шаблонная мерзость и разнобой.

богоносец:
А я так и не понял, почему мёртвая.

У вас много примеров актуальных сайтов, с исполнением XSLT на клиенте? Я ни одного не знаю. Пару лет назад мог перечислить 3-4. И это почти за 15 лет с момента запуска технологии.

На сервере тоже как-то почти не прижился, несмотря на то что мы с вами его очень любим :)

богоносец:
И в robots.txt

Способ не подходит по причинам, которые указал выше. Мне бы хотелось, самому контролировать то что ему должно быть известно и то что ему не должно быть известно. Так как это было и c JS и с Ajax до поры до времени.

богоносец:
xslt выполнять не хотят, даже в предпросмотре, для erum.ru в выдаче: Просмотр недоступен.

Я думаю, что тема мертвая. http://erum.ru типа памятника на могиле XSLT-иллюзий.

burunduk:
Ayavryk, в принципе он и не нужен, есть же хром ;)

если у меня паранойя, это не значит что за мной никто не следит (с)

burunduk:
проанализировать поведение юзера на странице проще и менее затратно

А если нет Google Anal?

Я пожалуй форсирую эксперимент http://erum.ru/116.htm

RiDDi:
отправка событий всем, кто их ждет, не?

Вы сами писали о трудозатратности операции анализа JS. Прикиньте во что выльется в динамике отправка всех событий скопом и анализ того что из этого должно получиться. А потом наверните на это асинхронные события. Если они в ту степь пойдут, у них 99% мощностей только на это будет работать, я так думаю

Мэтс пишет, что скрипты выполняются в определенных ограничениях. Я хочу понять где эти ограничения.

burunduk:
как раз нет, я выше приводил карты кликов и ссылок :)

То что показывают нам и то что знают про нас - это две большие разницы. И уже совсем другое дело - то как все это учитывается.

богоносец:
оставили бы боту возможность не-учёта результата JS/XSL при явном указании в роботсе.

Старая песня о главном. Яндексу/Googl'у лучше знать что нужно учитывать, что не нужно. На этом их бизнес держится.

RiDDi:
Вы серьезно предполагаете, что Ваш браузер это чудо сделанное инопланетянами.

А юзеров тоже в Google делают?

Не было бы вопросов, если бы речь шла о подгрузке AJAX по onload, а вот откуда боты понимают что все что может быть кликнуто (или mouseover'нуто или ...) должно быть кликнуто, и ссылки которые появятся после этого (как в примерах выше) должны быть проиндексированы, я не знаю. А вы?

RiDDi:
Не делается и вряд ли когда-нибудь сделается это по двум основным причинам..

Вот тут вы не вполне правы. Яндекс давно ввел noindex. Хотя не факт, что этот контент никак не учитывается.

big boy:
Ayavryk, не работает ваш пример.

http://jsfiddle.net/5zF7D/1/ !! jquery.1.9

http://jsfiddle.net/5zF7D/2/ - !! jquery < 1.9

burunduk:
если стоит метрика или аналитикс

Ну тогда вообще теряется всякий смысл игры в прятки с ботами. И вообще отпадают все вопросы.

богоносец:
Поскольку Миныч называл.

Миныч конечно голова, но Matt Cutts три года назад однозначно пообещал, что если будет нужно, они будут учитывать JS-ссылки в ccылочном ранжировании. С Robots.txt тоже не просто. Если страница на которой отображается закрытый контент сама не закрыта от индексации, то логично было бы все ее содержимое пихать в поиск или по крайней мере учитывать, что на 1К оргиниального контента приходится 20К неоригинального и такие страницы можно клеить. И я боюсь как раз этого.

Сегодня этого нет, а что будет завтра никто не знает.

Всего: 2264