Смысл в том, что нельзя предсказать и закрыть все возможные варианты GET-ов через Disallow, т.к. юзер или бот может подставить произвольные --> они попадут в индекс. Clean-param обрезает все, сделать это более тонко и правильно. Ее синтаксис расчитан именно на работу с get-параметрами, в то время как disallow расчитан на работу с пагинацией.
Некоторые директивы доступны только в Яндексе, некоторые он не читает. Тем не менее, в 95% случаем хватает
User-agent: *
Зайдите по FTP и поправьте .htaccess (90% редиректов лежат в нем).
О, мы уже уходим в тонкости оптимизации CSS. 100кб это уже сжатый размер, примеров полно.
Да не спорю я, что существуют чистанамахмтл-куски, которые ты предлагаешь показывать по ссылке. И это можно делать. Можно и отлавливать юзеров, запретивших JS, как и запретивших показ рекламы, как и многое другое. Вопрос в том, что если мы посмотрим даже на крупные порталы, то без JS на том же ситилинке хрен добавишь товар в корзину. Упс. Про кнопки "к сравнению" и прочие я и вовсе не говорю. А уж там трафик огого, несравнимый с обычными проектами. Просто люди, отключившие JS, вряд ли смогут даже зарегистрироваться, не то что пройти цепочку до оформления товара. Ну и да, они сами себе враги, как я уже говорил выше. Думаю, аналогичная ситуация будет и на остальных крупных ритейлерах.
Ну так банальный AJAX сейчас прекрасно индексируется и яндексом, и гуглом. Напомню, они не html странички индексируют, а dom-дерево. Да, по возможности. Но по опыту, у них это прекрасно получается. Ты же предлагаешь плодить костыли для того, чтобы учесть полтора человека именно на сайте, не в выдаче, которые все равно ничего толкового на сайте не сделают.
Ну раз они грузятся, значит и мои без БС будут работать аналогично (библиотечка jQuery уж точно не тяжелее сборки БС, который ее, кстати, использует местами).
Так я помню и делаю осознанный выбор, а ты почему-то считаешь что открываешь мне мир =) Без обид, но, думаю, каждый останется здесь при своем мнении. Спасибо за беседу!
Выдача по коммерческим запросам будет строиться исходя из региона запроса. По общим (без привязки к региону) выдача практически ничем не отличается. Единственный момент, что ранжирование может быть несколько хуже, если ваш сайт использует гео "Россия", а запрос идет из Казахстана (будут выше сайты с гео "СНГ" при прочих равных).
Индексная база же, насколько я понимаю, у Яндекса общая в пределах языка (на турецком вряд ли ваш сайт отсветит).
Цифры очень отличаются в различных тематиках. Название продукта может быть на русском, английском, транслитом, сленговым наименованием и проч. Соответственно, вычислять тошноту текста программными средствами особо не стоит, учитывая все вышесказанное.
А вообще писать текст без упоминания названия предмета как минимум странно =) Самый простой и один из самых действенных рецептов - прочитать текст вслух. Если ухо ничего не режет, публикуйте!---------- Добавлено 07.06.2017 в 03:01 ----------
Внимательно перечитал весь топик, не нашел уточнения об этом. Речь идет о тексте (см. шапку).
Мне кажется, или недавно эта тема обсуждалась?
По сабжу:
если вы хотите перенести сайт без потери трафика, то вариантов кроме редиректов нет.
Если трафик не важен - то можно убить первый сайт, дождаться его выпадения из индекса и залить на новом домене.
Ааа, точно. Насчет фейсбука тема. Так чем вариант лить на прокладку не устроил?)
Ссылки с википедии очень хорошо работают, более того, очень хороший эффект дают к приросту естественной ссылочной массы (у меня на развлекательном проекте за год +100 с лишним доменов пришло потому, что разместил несколько ссылок на свои статьи как на вики-источник). Позиции у сайта почти все ТОП. Совпадение?)
Очень просто: сайт, отвечающий на все возможные сходные запросы по одной тематике, будет ранжироваться значительно лучше сайта "обо всем", на одной или нескольких страницах затронувшего тему.
Отвечу по пунктам. 1% юзеров со старыми девайсами не приносят 5% трафика по косвенным каналам. Жду реального кейса-опровержения.
Я говорю не на примере какого-то кейса, а исходя из собственного опыта. То, что у меня на этом форуме молодая регистрация, совсем не значит, что я новичок. Основная моя клиентская тема находится на мауле, можешь глянуть (раз уж мы перешли на "ты") по нику Nell в соответствующем разделе.
Чем принципиально отличается загрузка с сервера JS-файлов и CSS/HTML? Ответ: ровно ничем. --> Если у юзера печальный инет, он и сайт-то нормально не откроет. Но разве я где-то отрицал необходимость оптимизации кода (сжатие/минификацию)? По поводу асинхрона отвечу ниже.
Кто-то отменил карту сайта /sitemap.xml, категории по прямым ссылкам, комменты в боковом меню (если очень хочется, можно вывести их и отдельно, как предлагаешь ты, вот только нафига? Профита в этом крайне мало).
Все верно. Вот только критичные скрипты вполне себе можно написать на голом JS (чтобы в момент, когда тащится jQuery и другие библитеки из конца кода, клики уже работали), который, кстати, уже и на древних устройствах есть.
Да я не спорю с возможным подходом, он имеет место быть, некоторые его используют. Я говорю о другом: критичные куски интерфейса все равно чаще всего не сделать без JS. Если печалят вес библиотек и общая скорость загрузки сайта - писать на голом JS критичные куски или делать прекомпиляцию кода с нужными функциями. Но, опять же: зачем? Еще раз: юзер с плохим инетом не подгрузит и обычный CSS, который в случае большого магазина, например, легко вылезает за 100кб. Более того, сейчас огромное количество сайтов пишется на бутстрапе (крайне его не люблю) и аналогах, вес которых вообще запределен. Что теперь, запретить фреймворки?)
Большинство сегодняшних интерфейсов так или иначе используют AJAX. Одним из основных преимуществ его, которое тебе в текущем обсуждении будет достаточно сложно оспорить, является обновление кусков страницы (а не полная её перезагрузка), что критично важно для устройств с медленным интернетом.
Вряд ли бяка, т.к. на статейниках часто вылетают даже очень качественные страницы из индекса, а затем за ап-два возвращаются. Скорее не бяка, а недопилка алгоритмов, или же "фича" с каким-то хитрым видом тестирования.