- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
В 2023 году 36,9% всех DDoS-атак пришлось на сферу финансов
А 24,9% – на сегмент электронной коммерции
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Вопрос в следующем - есть идея перевести сайт на XML+XSLT. Поделитесь опытом рлиз, а то не нашел инфы, как индексируют поисковики подобную связку? Может у кого есть опыт продвижения таких сайтов.
как индексируют поисковики подобную связку?
Гугль говорит анкноун тайп, но контент индексирует (правда, недавно сайт пропал из индекса). Это в случае Клиент-сайд парсинга.
В случае сервер-сайд - всё происходит абсолютно прозрачно для поисковиков.
Обычно и чаще всего связка XML+XSLT используется на серверной стороне. То есть достается (выбирается) контент в виде XML, а затем преобразуется с помощью XSLT в благообразный вид - HTML или XHTML. Ну а дальше все как обычно - HTML/XHTML поисковики индексируют отлично :)
Другое дело когда происходит парсинг на стороне клиента. Может быть гугл и индексирует контент, но как вы выделите ключевые моменты на странице в XML? Как выделите заголовки, мета-теги, важные ключевики, ссылки?.. Да и в конце концов, как из серпа будет стоять ссылка на ваш сайт? На XML-файл? Так не все браузеры умеют преобразовывать XML в HTML используя XSLT, пример тому - браузеры мобильных устройств. Я бы рекомендовал использовать парсинг на стороне клиента только в исключительных случаях. Например, когда передаются персонифицированные данные от клиента серверу (админка, CMS, https, клиентская часть). В этом случае, действительно, для уменьшения трафика и нагрузки на сервер можно передавать клиенту данные в виде XML и XSLT, а он сам будет их парсить и отображать. Очень удобно использовать технологию ajaxslt - тут вооще идет асинхронный обмен данными между клиентом и сервером в виде XML.
Может быть гугл и индексирует контент, но как вы выделите ключевые моменты на странице в XML? Как выделите заголовки, мета-теги, важные ключевики, ссылки?
А что мешает переопределить теги в ХМЛ? ;)
На XML-файл?
Да, именно так и получается. Сcылка стоит именно на ХМЛ файл. :)
Нашёл-таки в гугле: http://www.worldofwarcraft.com/index.xml
Честно говоря, не понимаю того изврата, который учудили программисты этого сайта :), так как от XML там только заголовок, да несколько тегов. Весь же основной контент содержится в тегах HTML, поэтому гугл его и проиндексировал.
У меня есть сайт, у которого в заголовке стоит что он XML (<?xml version="1.0" encoding="ISO-8859-5"?>) , но весь контент - XHTML, делал чтобы узнать, как только заголовок может повлиять на ранжирование в поисковиках. В общем, никак, рулит контент и старые добрые теги HTML! :)
Supermakc, Вы очень заблуждаетесь :)
Данная страница - это чистейший ХМЛ :)
А тот момент, что переопределены теги - так это скорее всего именно и сделано для обратной совместимости с поисковиками ;)
Взять хотя бы к примеру:
или:
<newsposts/>
</div>
или:
<span class="phatLootBox-visual comm"/>
</a>
Это всё абсолютно корректные ХМЛ конструкции и теги, чего не скажешь про ХХТМЛ (речь о ХТМЛ не идёт, так как здесь его кроме как в парных тегах, коими он полностью совпадает с ХХТМЛ, больше нигде и нет).
Полагаю, на данном этапе развития клиент-сайдовых решений ХМЛ+ХСЛТ приходится прибегать к таким уловкам, как совпадающие с ХХТМЛ/ХТМЛ теги, только ради поисковиков, которые по разному воспринимают контент в этих тегах.
Спасибо за ответы. Смысл ясен - т.е. стоит поэксперементировать с клиент-сайд версией учитывая при этом обратную совместимость с поисковиком. Просто я подумал что при представлении материала в XML можно расположить контент в коде именно так как надо, с CSS версткой это не всегда получается. Да и что то не подумал я что можно определить теги как в HTML :-)
Яндекс, рамблер и гугл индексируют такие сайты отлично, а вот с Апортом есть проблемы, так как в адресе страницы могут присутствовать значки типа "?""&", а он этого не любит (помоему даже в его лицензии что то написано), вообщем апорт индексирует через пень колоду((
Я делал XSL-преобразования на клиенте только во всяком back-end, в смысле в админках. Отдавать xml обычным пользователям не пробовал, из тех соображений, что ХЗ что у них за узер-агент: все-таки XSL трансформации поддерживаются далеко не всеми браузерами.
Можно, конечно, делать проверку User-agent, и отдавать старым браузерам html, сгенерированный на сервере. Но тогда, по идее, html надо отдавать и поисковику (он-то точно XSLT не поддерживает), т.е. теряется вся красота затеи. Если же отдавать SE отдельно XML и XSL, можно залететь по статье "клоакинг": все-таки засчет XSL действительно можно убрать из основного кода немало "мусора" (ну, отдавать что-то похожее на версию для печати, а всякую прочую нафигацию приделывать в XSL). Т.е. попасть можно, если придет Платон со старым браузером, глянет код - там одно, нажмет кнопку "посмотреть яндексом" - там другое... хрен чего объяснишь. Хотя, вероятность мала.
Вообще идея неплохая. Надо поизучать состояние XSLT в разных браузерах...
так как в адресе страницы могут присутствовать значки типа "?""&"
Э.... не понял сути. А разве при использовании простого ХТМЛ такие значки всегда отсутствуют?
все-таки XSL трансформации поддерживаются далеко не всеми браузерами.
Поддерживается ИЕ (уже довольно давно), ФФ (тоже порядочно), Опера (начиная с 9 версии) :)