богоносец

богоносец
Рейтинг
779
Регистрация
30.01.2007
DiAksID:
поисковики, кроме яху и чуть-чуть гугла, строили базы и ранжирование прежде всего на text/html контенте

Яндекс распознаёт и , там ответ

HTTP/1.1 302 Found

Server: nginx/1.2.1
Content-Type: text/xml; charset=windows-1251
а при 302 в выдаче остаётся адрес, с которого редиректится, т.е. pogoda.yandex.ru/

Но наверное не распознаёт... а как-то ещё, и вот иконку они такую завели, хотя платоны отвечают,что xml не индексят. И им даже верят...

И тоже, см расширенный поиск (там нет XML).

Ayavryk:
У вас много примеров актуальных сайтов, с исполнением XSLT на клиенте? Я ни одного не знаю. Пару лет назад мог перечислить 3-4. И это почти за 15 лет с момента запуска технологии

Ну не 15 наверное, писаниям.w3c и то меньше.

У меня вообще мало сайтов. А живых из них ещё меньше.

Ну какие конкретно проблемы с использованием XSLT на клиенте?

Ну отказалась команда Яндекс.Почты от этого, ну и что.

Тот же AJAX ... может использовать xslt, поскольку xml...

Ну а на сервере — это совсем далеко от темы. Нам бы тут ссылки попрятать.

root:
Спасибо, только как туда сапку вставлять теперь :( (если тока вручную)

И на вирусы ничего не ругалось?

А про сапу не знаю, нет её у меня... и не думаю, что вам имет смысл это обсуждать, вам же быстрее прикроют остатки возможностей (не со зла, а токмо ради прибыли). Хоть они и не секретны...

Вот у меня нет желания пиарить какие-то возможности. Пока их используют 0.5% пользователей, их не прикроют.

Остается вопрос с внутренними папками( тоже редиректят на index.html

У меня не получилось, не знаю. Может Курт подскажет.

root:
Написано, что у платного аккаунта: "Открытие сайта к индексации поисковыми системами" - не вижу запрета у бесплатного акка на индексацию - его нет?
А заведите на укозе сайтик и посмотрите в его роботс...
root:
Kurt, как убрать 301 редирект с главной на index.html?

Покупайте книжку по укозу! А вообще проблема решена ещё вчера! Но почему-то торчит уже сегодня.

Идёте в =настройки дизайна=

Редактор страниц =страницы сайта=

Заливаете туда код вашего index.html в UTF-8, пробуете сохранить, она ругается, добавляете в углу $Чего-то$ обязательное, пробуете сохранить. В файловом менеджере удаляете index.html

87793:
Так в чём разница содержательно-то?
При обращении к просто доменному имени было доступно содержимое index.html (при этом в адресной строке оставалось доменное имя без index.html), а сейчас доступно оно же, но в адресной строке перещёлкивает на index.html.
При одном и том же запросе имеем один и тот же результат.

Это форум о поисковых системах... для которых любое отличие в урле == другому урлу.

Ну вот кто-то и будет копировать ссылки/index.html

Kurt:
Ну хоть теперь не обвинят что мы делаем ради нажимы :):)

Проблема с index в папках вчера была решена. Работает корректно.

Да никто вас не будет обвинять.

Но кто-то давеча обещал, что всё останется как было, по старым урлам. А тут такое:

GET / HTTP/1.1

Host: forum-collection.narod.ru

Ответ
HTTP/1.1 301 Moved Permanently
Server: uServ/3.2.2
Date: Wed, 10 Apr 2013 11:48:22 GMT
Location: http://forum-collection.narod.ru/index.html
Cache-Control: private

GET /index.html HTTP/1.1
Host: forum-collection.narod.ru

Ответ
HTTP/1.1 200 OK
Kurt:
Какой у вас антивирус? При каких действиях?

Dr.Web, при попытке сохранить эту самую главную страницу. Вчера не было...

Kurt:
Не понял мысль, но на uCoz, да, средства импорта удаленного кода для бирж ссылок работает только у премиум аккаунтов

Ну чтобы не злить ссылкоторговцев :) давайте не будем это обсуждать. Хотя оно и так понятно. Но не думаю, что вам сейчас очень уж нужно кого-то лишний раз напрягать. Пусть всё будет постепенно...

Но чтобы заметить этот rel=canonical, страницу надо скачать
Pavel_:
Неужто у юзеров и ПС есть другие варианты для поглядеть сайт? ... ))

Ясновидящих ПС нет. Им приходится что-то запрашивать...

Pavel_:
Дык они и так фильтруюццо до попадания... ))
Хороший тег и адекватно понимаемый ПС-ми

rel=canonical только помогает поисковику, но если на одну страницу с неповторимым контентом отдавать ещё 100500 с <link rel="canonical" href="другой-урл"> то долго же вас будут индексить.

Если чего-то не надо индексировать, то и ссылку на это боту показывать не надо... вместо затыкания дыр canonical и роботсом.

Коля Дубр:
Во-вторых, не понимаю, зачем делать бото-читаемую навигацию только через карту сайта - внутренние страницы оказываются на в двух кликах от морды, какой от этого профит? Борьба со сквозняками? А все ли верят, что это еще актуально? :)
А это лишь одна из возможных задач. Но! Вот мы и вернулись к проблеме веры, не свойственной ползателям/покупателям CMS. И поэтому... сеошникам ещё долго придётся возиться со статикой.
Коля Дубр:
В любом случае мне кажется, что страницы c rel=canonical должны фильтроваться еще до попадания в индекс.

Но чтобы заметить этот rel=canonical, страницу надо скачать.

Проблема усугубляется, если CMS создаёт кучу ссылок на левые страницы

/ru/forum/comment/11649708

/ru/forum/comment/11649708

Коля Дубр:
То есть дать админу сайта (сеошнику, разработчику?) возможность управления индексацией отдельных блоков? Мысль интересная, но что-то мне подсказывает: те, кто знают, зачем это нужно, сообразят и как это сделать.

И проще это будет без ковыряния в чужом софте.

Можно чуть больше практических примеров по этому пункту?

Да вон бурундуковских хватит.

Но у нормальных пользователей CMS нет понимания примитивного мира, в котором действуют ПС. И если сайт избавляет ПС и сеть от лишней работы и трафика... это не улучшит её продаваемость.

Выбор ручной или автоматический?

Скорее возможность поставить галки (с минимум пояснений). И с напоминаем, что ползатель должен сам понимать что делает. А умолчания — не знаю какие должны быть.

А в /admin/ антивирус стал ругаться при некоторых действиях.

"Object","Threat","Action","Path",""
" (Request)","SCRIPT.Virus","Заблокирован","http://***.narod.ru/panel/ (Request)"
ancifer2002:
Блин, не думал что кто-то с Сёрча всерьёз народный хостинг юзал. :)

И... судя по словесным обещаниям, новый владелец не хотел бы ссориться с сапоторговлей. Хотя давно грозился их всех сделать платными.

87793:
при наборе имени домена в адресной строке (forum-collection.narod.ru) точно так же открывался index.html (forum-collection.narod.ru/index.html).
И что тут поменялось?

Только лишь урл. Нормально, по / было доступно содержимое index.html без /index.html в урле.

Проверке ответа.

У нового владельца эти мильёны уников поубавятся, когда из индекса чего-то повыпадает. Ну не учить же его... видимо ему надо что-то другое.

Ayavryk:
Я думаю, что тема мертвая. http://erum.ru типа памятника на могиле XSLT-иллюзий.

А я так и не понял, почему мёртвая.

Браузеры давно поумнели... и даже Яндекс в своей почте не столь давно использовал. Для решения простых задач пойдёт.

А так, ну какая разница, JS или XSL, кому что больше нравится.

Коля Дубр:
Привет :)
Но вообще (сугубо ИМХО!) это слишком общая проблема, настолько общая, что ей должны заниматься сами поисковики. Тем более, что у них есть все данные, чтобы для таких примеров выбирать правильный вариант. Все известные мне случаи проблем с дублями были связаны с тем, что CMS именно отдает разные URL, а не только реагирует на них.

Привет.

Эту общую проблему CMS чаще усугубляют, чем лечат.

Когда за дубли берутся поисковики, то... им в первую очередь надо освободить свою базу, а не обеспечить на 100% безошибочную фильтрацию... если они в 5% случаев ошибутся, то у них проблем не возникает, а у владельцев сайтов всякое возможно. Ну и не могут ПС на второстепенные задачи тратить слишком много своих ресурсов, поэтому упрощают эту борьбу.

Коля Дубр:
А какой заголовок там должен быть?

Такой, который не даёт ПС повода для индексации всего лишнего.

Это для ПС разные урлы.

Коля Дубр:
На мой вкус, заголовок должен отдаваться как раз 200, но с добавлением <link rel="canonical" />, благо его поддерживают более-менее все.

Сначала ПС (имея ограничение на количество обращений к конкретному серваку) скачает эти дубли, потом поймёт, что это дубли. Скорость индексации/переиндексации снижается.

Коля Дубр:
Полностью соответствует чему?

Единственно возможному правильному.

Нужно взаимно однозначное соответсвие между единицами контента и урлами.

Коля Дубр:
есть еще примеры того, что современные CMS не умеют, но должны уметь?

1. Ну хотя бы не создавать тупых проблем для ПС. И там писал уже.

2. Помогать разруливать проблемы, являющиеся как бы свойством сайта. Например футеры/шапки/менюшки можно рисовать на клиенте, не показывая ботам... ну вот если на страницах неповторимого контета мало, например.

3. Оставлять много свободы по изменению всего... включая урлы (предоставляя выбор ласт-модифайда и ответа при обращении по старому урлу), типа Райцин писал давно, или свежие проделки Бурундука.

Если этому всему CMS не соответствуют, то проще возиться со статикой.

Всего: 13684