Яндекс распознаёт и , там ответ
HTTP/1.1 302 Found Server: nginx/1.2.1 Content-Type: text/xml; charset=windows-1251
Но наверное не распознаёт... а как-то ещё, и вот иконку они такую завели, хотя платоны отвечают,что xml не индексят. И им даже верят...
И тоже, см расширенный поиск (там нет XML).
Ну не 15 наверное, писаниям.w3c и то меньше.
У меня вообще мало сайтов. А живых из них ещё меньше.
Ну какие конкретно проблемы с использованием XSLT на клиенте?
Ну отказалась команда Яндекс.Почты от этого, ну и что.
Тот же AJAX ... может использовать xslt, поскольку xml...
Ну а на сервере — это совсем далеко от темы. Нам бы тут ссылки попрятать.
И на вирусы ничего не ругалось?
А про сапу не знаю, нет её у меня... и не думаю, что вам имет смысл это обсуждать, вам же быстрее прикроют остатки возможностей (не со зла, а токмо ради прибыли). Хоть они и не секретны...
Вот у меня нет желания пиарить какие-то возможности. Пока их используют 0.5% пользователей, их не прикроют.
У меня не получилось, не знаю. Может Курт подскажет.
Покупайте книжку по укозу! А вообще проблема решена ещё вчера! Но почему-то торчит уже сегодня.
Идёте в =настройки дизайна=
Редактор страниц =страницы сайта=
Заливаете туда код вашего index.html в UTF-8, пробуете сохранить, она ругается, добавляете в углу $Чего-то$ обязательное, пробуете сохранить. В файловом менеджере удаляете index.html
Это форум о поисковых системах... для которых любое отличие в урле == другому урлу.
Ну вот кто-то и будет копировать ссылки/index.html
Да никто вас не будет обвинять.
Но кто-то давеча обещал, что всё останется как было, по старым урлам. А тут такое:
GET / HTTP/1.1 Host: forum-collection.narod.ru Ответ HTTP/1.1 301 Moved Permanently Server: uServ/3.2.2 Date: Wed, 10 Apr 2013 11:48:22 GMT Location: http://forum-collection.narod.ru/index.html Cache-Control: private GET /index.html HTTP/1.1 Host: forum-collection.narod.ru Ответ HTTP/1.1 200 OK
Dr.Web, при попытке сохранить эту самую главную страницу. Вчера не было...
Ну чтобы не злить ссылкоторговцев :) давайте не будем это обсуждать. Хотя оно и так понятно. Но не думаю, что вам сейчас очень уж нужно кого-то лишний раз напрягать. Пусть всё будет постепенно...
Ясновидящих ПС нет. Им приходится что-то запрашивать...
rel=canonical только помогает поисковику, но если на одну страницу с неповторимым контентом отдавать ещё 100500 с <link rel="canonical" href="другой-урл"> то долго же вас будут индексить.
Если чего-то не надо индексировать, то и ссылку на это боту показывать не надо... вместо затыкания дыр canonical и роботсом.
Но чтобы заметить этот rel=canonical, страницу надо скачать.
Проблема усугубляется, если CMS создаёт кучу ссылок на левые страницы
/ru/forum/comment/11649708
И проще это будет без ковыряния в чужом софте.
Да вон бурундуковских хватит.
Но у нормальных пользователей CMS нет понимания примитивного мира, в котором действуют ПС. И если сайт избавляет ПС и сеть от лишней работы и трафика... это не улучшит её продаваемость.
Скорее возможность поставить галки (с минимум пояснений). И с напоминаем, что ползатель должен сам понимать что делает. А умолчания — не знаю какие должны быть.
А в /admin/ антивирус стал ругаться при некоторых действиях.
И... судя по словесным обещаниям, новый владелец не хотел бы ссориться с сапоторговлей. Хотя давно грозился их всех сделать платными.
Только лишь урл. Нормально, по / было доступно содержимое index.html без /index.html в урле.
Проверке ответа.
У нового владельца эти мильёны уников поубавятся, когда из индекса чего-то повыпадает. Ну не учить же его... видимо ему надо что-то другое.
А я так и не понял, почему мёртвая.
Браузеры давно поумнели... и даже Яндекс в своей почте не столь давно использовал. Для решения простых задач пойдёт.
А так, ну какая разница, JS или XSL, кому что больше нравится.
Привет.
Эту общую проблему CMS чаще усугубляют, чем лечат.
Когда за дубли берутся поисковики, то... им в первую очередь надо освободить свою базу, а не обеспечить на 100% безошибочную фильтрацию... если они в 5% случаев ошибутся, то у них проблем не возникает, а у владельцев сайтов всякое возможно. Ну и не могут ПС на второстепенные задачи тратить слишком много своих ресурсов, поэтому упрощают эту борьбу.
Такой, который не даёт ПС повода для индексации всего лишнего.
Это для ПС разные урлы.
Сначала ПС (имея ограничение на количество обращений к конкретному серваку) скачает эти дубли, потом поймёт, что это дубли. Скорость индексации/переиндексации снижается.
Единственно возможному правильному.
Нужно взаимно однозначное соответсвие между единицами контента и урлами.
1. Ну хотя бы не создавать тупых проблем для ПС. И там писал уже.
2. Помогать разруливать проблемы, являющиеся как бы свойством сайта. Например футеры/шапки/менюшки можно рисовать на клиенте, не показывая ботам... ну вот если на страницах неповторимого контета мало, например.
3. Оставлять много свободы по изменению всего... включая урлы (предоставляя выбор ласт-модифайда и ответа при обращении по старому урлу), типа Райцин писал давно, или свежие проделки Бурундука.
Если этому всему CMS не соответствуют, то проще возиться со статикой.