- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Отпишусь о результатах моего эксперимента.
Гугл, будучи более резвым, переиндексировал сайт с js ссылками из стартпоста, но в текстовой копии сайта он эти ссылки НЕ отображает. Они выводятся обычным текстом. Вот так вот.
big boy, попробуйте проиндексировать страницу такой ссылкой. Именно такой ссылкой, других ссылок, переходов пользователей, всяких пингаторов и аддурилок не должно быть.
А я так и не понял, почему мёртвая.
У вас много примеров актуальных сайтов, с исполнением XSLT на клиенте? Я ни одного не знаю. Пару лет назад мог перечислить 3-4. И это почти за 15 лет с момента запуска технологии.
На сервере тоже как-то почти не прижился, несмотря на то что мы с вами его очень любим :)
с исполнением XSLT на клиенте
я так думаю, получится дать пинок в сторону распространения, если смогу сделать актуальный шаблон для конструктора :)
У вас много примеров актуальных сайтов, с исполнением XSLT на клиенте? Я ни одного не знаю. Пару лет назад мог перечислить 3-4. И это почти за 15 лет с момента запуска технологии
Ну не 15 наверное, писаниям.w3c и то меньше.
У меня вообще мало сайтов. А живых из них ещё меньше.
Ну какие конкретно проблемы с использованием XSLT на клиенте?
Ну отказалась команда Яндекс.Почты от этого, ну и что.
Тот же AJAX ... может использовать xslt, поскольку xml...
Ну а на сервере — это совсем далеко от темы. Нам бы тут ссылки попрятать.
Ну не 15 наверное, писаниям.w3c и то меньше.
Это за 15 лет с момента выпуска IE5 и за 10 с выпуска FF. Смысла разбираться в причинах имхо нет никакого.
Технология оказалась красивой, но увы бесплодной. Особенно ясно стали размножаться json-шаблонизаторы, причем и на клиенте и на сервере. Единый шаблонизатор на клиенте и сервере - это мечта. Жаль только что в реальности получилась обычная шаблонная мерзость и разнобой.
Это за 15 лет с момента выпуска IE5 и за 10 с выпуска FF. Смысла разбираться в причинах имхо нет никакого ...
на вскидку достаточно очевидно: в эти 10-15 лет как раз был взрывной период формирования рынка и стандартов, причём объём контента рос на 99.99% за счёт "нубов" (в разных смыслах).
кодеры вполне обходились более простыми для освоения средствами, создавая менее изящные но быстрее реализуемые решения => поисковики, кроме яху и чуть-чуть гугла, строили базы и ранжирование прежде всего на text/html контенте => кроме сложности появилась доп причина пренебрегать XSLT, и так по кругу. да и броузеры б/м устаканили работу парсеров не так давно.
поисковики, кроме яху и чуть-чуть гугла, строили базы и ранжирование прежде всего на text/html контенте
Яндекс распознаёт и
, там ответ
а при 302 в выдаче остаётся адрес, с которого редиректится, т.е. pogoda.yandex.ru/Но наверное не распознаёт... а как-то ещё, и вот иконку они такую завели, хотя платоны отвечают,что xml не индексят. И им даже верят...
И
тоже, см расширенный поиск (там нет XML).
Яндекс распознаёт и ...
что поисковики распознают и индексируют XML с html-корнем это загадкой не было ;), но как ранжируют? до недавнего времени гугел в рекомендациях прямо заявлял типа "xml проиндексируем, но в ранжировнии text/html в приоритете", сейчас вроде бы уже смирился, а вот яшка наверняка только догоняет.
я же не просто так яху вспомнил, который xslt отрабатывал почти в полном объёме, media-type в output точно отлавливал...
что поисковики распознают и индексируют XML с html-корнем это загадкой не было ;), но как ранжируют?
лучше чем обычные, потому что XSLT позволяет сделать намного больше чем JS. Те же ссылки, с которых все началось, они засечь не в состоянии да и любой контент спрятать или показать нет проблем.
UPD лучше чем обычно при прочих равных естественно.