Вот не надо так думать, ничего я не решил. Лучше бы не видеть проблемы в таком виде: показывает не то, что я написал. А если примерно понятны возможности, их можно пытаться учитывать.
А завтра это всё опять изменят...
А пару месяцев назад обещали, что останется всё как было.
Но вдруг кому-то надо вспоминать про этот хлам, лезть разбираться в вашем этом всём: Редактор страниц, Главная страница, чего-то менять, этого просто не будут делать в 90% случаев. И за вами будет тянуться слава уничтожения Народа.
Мета-рефреши убрали. Зачем? Вот и верь таким после этого...
Ну не первая тема /ru/forum/671962 но там примеры исчезли. Ищите по форуму =гугл title= но правильного решения нет.
И <h1> может попадать (особенно при повторяющихся тайтлах), и анкор перелинковки, и внешняя ссылка — придётся писать для людей и думать чем линковать. И всё это зависит ещё и от запроса.
Яндекс распознаёт и , там ответ
HTTP/1.1 302 Found Server: nginx/1.2.1 Content-Type: text/xml; charset=windows-1251
Но наверное не распознаёт... а как-то ещё, и вот иконку они такую завели, хотя платоны отвечают,что xml не индексят. И им даже верят...
И тоже, см расширенный поиск (там нет XML).
Ну не 15 наверное, писаниям.w3c и то меньше.
У меня вообще мало сайтов. А живых из них ещё меньше.
Ну какие конкретно проблемы с использованием XSLT на клиенте?
Ну отказалась команда Яндекс.Почты от этого, ну и что.
Тот же AJAX ... может использовать xslt, поскольку xml...
Ну а на сервере — это совсем далеко от темы. Нам бы тут ссылки попрятать.
И на вирусы ничего не ругалось?
А про сапу не знаю, нет её у меня... и не думаю, что вам имет смысл это обсуждать, вам же быстрее прикроют остатки возможностей (не со зла, а токмо ради прибыли). Хоть они и не секретны...
Вот у меня нет желания пиарить какие-то возможности. Пока их используют 0.5% пользователей, их не прикроют.
У меня не получилось, не знаю. Может Курт подскажет.
Покупайте книжку по укозу! А вообще проблема решена ещё вчера! Но почему-то торчит уже сегодня.
Идёте в =настройки дизайна=
Редактор страниц =страницы сайта=
Заливаете туда код вашего index.html в UTF-8, пробуете сохранить, она ругается, добавляете в углу $Чего-то$ обязательное, пробуете сохранить. В файловом менеджере удаляете index.html
Это форум о поисковых системах... для которых любое отличие в урле == другому урлу.
Ну вот кто-то и будет копировать ссылки/index.html
Да никто вас не будет обвинять.
Но кто-то давеча обещал, что всё останется как было, по старым урлам. А тут такое:
GET / HTTP/1.1 Host: forum-collection.narod.ru Ответ HTTP/1.1 301 Moved Permanently Server: uServ/3.2.2 Date: Wed, 10 Apr 2013 11:48:22 GMT Location: http://forum-collection.narod.ru/index.html Cache-Control: private GET /index.html HTTP/1.1 Host: forum-collection.narod.ru Ответ HTTP/1.1 200 OK
Dr.Web, при попытке сохранить эту самую главную страницу. Вчера не было...
Ну чтобы не злить ссылкоторговцев :) давайте не будем это обсуждать. Хотя оно и так понятно. Но не думаю, что вам сейчас очень уж нужно кого-то лишний раз напрягать. Пусть всё будет постепенно...
Ясновидящих ПС нет. Им приходится что-то запрашивать...
rel=canonical только помогает поисковику, но если на одну страницу с неповторимым контентом отдавать ещё 100500 с <link rel="canonical" href="другой-урл"> то долго же вас будут индексить.
Если чего-то не надо индексировать, то и ссылку на это боту показывать не надо... вместо затыкания дыр canonical и роботсом.
Но чтобы заметить этот rel=canonical, страницу надо скачать.
Проблема усугубляется, если CMS создаёт кучу ссылок на левые страницы
/ru/forum/comment/11649708
И проще это будет без ковыряния в чужом софте.
Да вон бурундуковских хватит.
Но у нормальных пользователей CMS нет понимания примитивного мира, в котором действуют ПС. И если сайт избавляет ПС и сеть от лишней работы и трафика... это не улучшит её продаваемость.
Скорее возможность поставить галки (с минимум пояснений). И с напоминаем, что ползатель должен сам понимать что делает. А умолчания — не знаю какие должны быть.