Это форум о поисковых системах... для которых любое отличие в урле == другому урлу.
Ну вот кто-то и будет копировать ссылки/index.html
Да никто вас не будет обвинять.
Но кто-то давеча обещал, что всё останется как было, по старым урлам. А тут такое:
GET / HTTP/1.1 Host: forum-collection.narod.ru Ответ HTTP/1.1 301 Moved Permanently Server: uServ/3.2.2 Date: Wed, 10 Apr 2013 11:48:22 GMT Location: http://forum-collection.narod.ru/index.html Cache-Control: private GET /index.html HTTP/1.1 Host: forum-collection.narod.ru Ответ HTTP/1.1 200 OK
Dr.Web, при попытке сохранить эту самую главную страницу. Вчера не было...
Ну чтобы не злить ссылкоторговцев :) давайте не будем это обсуждать. Хотя оно и так понятно. Но не думаю, что вам сейчас очень уж нужно кого-то лишний раз напрягать. Пусть всё будет постепенно...
Ясновидящих ПС нет. Им приходится что-то запрашивать...
rel=canonical только помогает поисковику, но если на одну страницу с неповторимым контентом отдавать ещё 100500 с <link rel="canonical" href="другой-урл"> то долго же вас будут индексить.
Если чего-то не надо индексировать, то и ссылку на это боту показывать не надо... вместо затыкания дыр canonical и роботсом.
Но чтобы заметить этот rel=canonical, страницу надо скачать.
Проблема усугубляется, если CMS создаёт кучу ссылок на левые страницы
/ru/forum/comment/11649708
И проще это будет без ковыряния в чужом софте.
Да вон бурундуковских хватит.
Но у нормальных пользователей CMS нет понимания примитивного мира, в котором действуют ПС. И если сайт избавляет ПС и сеть от лишней работы и трафика... это не улучшит её продаваемость.
Скорее возможность поставить галки (с минимум пояснений). И с напоминаем, что ползатель должен сам понимать что делает. А умолчания — не знаю какие должны быть.
А в /admin/ антивирус стал ругаться при некоторых действиях.
И... судя по словесным обещаниям, новый владелец не хотел бы ссориться с сапоторговлей. Хотя давно грозился их всех сделать платными.
Только лишь урл. Нормально, по / было доступно содержимое index.html без /index.html в урле.
Проверке ответа.
У нового владельца эти мильёны уников поубавятся, когда из индекса чего-то повыпадает. Ну не учить же его... видимо ему надо что-то другое.
А я так и не понял, почему мёртвая.
Браузеры давно поумнели... и даже Яндекс в своей почте не столь давно использовал. Для решения простых задач пойдёт.
А так, ну какая разница, JS или XSL, кому что больше нравится.
Привет.
Эту общую проблему CMS чаще усугубляют, чем лечат.
Когда за дубли берутся поисковики, то... им в первую очередь надо освободить свою базу, а не обеспечить на 100% безошибочную фильтрацию... если они в 5% случаев ошибутся, то у них проблем не возникает, а у владельцев сайтов всякое возможно. Ну и не могут ПС на второстепенные задачи тратить слишком много своих ресурсов, поэтому упрощают эту борьбу.
Такой, который не даёт ПС повода для индексации всего лишнего.
Это для ПС разные урлы.
Сначала ПС (имея ограничение на количество обращений к конкретному серваку) скачает эти дубли, потом поймёт, что это дубли. Скорость индексации/переиндексации снижается.
Единственно возможному правильному.
Нужно взаимно однозначное соответсвие между единицами контента и урлами.
1. Ну хотя бы не создавать тупых проблем для ПС. И там писал уже.
2. Помогать разруливать проблемы, являющиеся как бы свойством сайта. Например футеры/шапки/менюшки можно рисовать на клиенте, не показывая ботам... ну вот если на страницах неповторимого контета мало, например.
3. Оставлять много свободы по изменению всего... включая урлы (предоставляя выбор ласт-модифайда и ответа при обращении по старому урлу), типа Райцин писал давно, или свежие проделки Бурундука.
Если этому всему CMS не соответствуют, то проще возиться со статикой.
Ну это означает смену урлов для ПС.
Чтобы так не скакало, надо удалить файл index.html из корня и в =настройки дизайна= сделать шаблон страницы из содержимого index.html ... с добавками типа
<script type='text/javascript'> document.write('<a href="http://www.ucoz.ru/" title="Бесплатно!"><img style="margin:0;padding:0;border:0;" alt="uCoz" src="http://s200.ucoz.net/img/cp/4.gif" width="80" height="15"/></a>'); </script> <script type='text/javascript'> <!-- document.write(' $Powered-By$ '); // ну он сам точнее подскажет при сохранении шаблона --> </script>
А с папками не знаю.
И в robots.txt тоже, наверное.
Ну и от популярности чего-либо зависит... какого-либо метода, например xslt (это же типа статика) выполнять не хотят, даже в предпросмотре, для erum.ru в выдаче: Просмотр недоступен.
Исполняют... может быть не на всех сайтах // см в подвале примера. Откуда undefined? И почему продолжение сниппета с самого начала страницы?
Ну вот превьюшки в выдаче рисует с полным исполнением JS, но XSL никак.
Не надеяться на то, что создатели CMS ставят задачу сделать сайты удобными для ПС (которым обычно остаётся много работы по отфильровыванию дублей, но делают они это как-нибудь и без лишних затрат, из-за чего и бывают проблемы). Они стараются сделать облегчалку создания сайтов. Тут создатель СМС не стеснялся позиционировать себя как идейного противника удобства сайта для ПС.
У серваков (созданных ещё до появления ПС) есть некоторые особенности, пересекающиеся со стандартом на урл... и вот пример проблемы из-за сервака, которую двиг не лечит, хотя мог бы... но это же сколько надо было бы проверок сделать перед ответом!
Ну в адресную строку forum-collection.narod.ru
получим адрес forum-collection.narod.ru/index.html
Папки... ну на других сайтах не видит в них (index.html) 403 Forbidden
Ну из поиска повыпадают.