NellSEO

NellSEO
Рейтинг
12
Регистрация
03.06.2017
Занимаюсь клиентским SEO с 2012 года. Могу и имею в аудит, внутреннюю и внешнюю оптимизацию сайта, создание верстки и натяжки, PHP-кода.
Arthorius:

Просветите пожалуста в таком вопросе, зачем нужна Clean-param в robots.txt , если get-парметры можно закрыть директивой Disallow?

Смысл в том, что нельзя предсказать и закрыть все возможные варианты GET-ов через Disallow, т.к. юзер или бот может подставить произвольные --> они попадут в индекс. Clean-param обрезает все, сделать это более тонко и правильно. Ее синтаксис расчитан именно на работу с get-параметрами, в то время как disallow расчитан на работу с пагинацией.

Arthorius:
И ещё вопрос,зачем в robots.txt блок User-agent: Yandex, если блок User-agent: * обращается ко всем ПС? Зачем для Яндекса отдельно всё повторять?

Некоторые директивы доступны только в Яндексе, некоторые он не читает. Тем не менее, в 95% случаем хватает

User-agent: *

Зайдите по FTP и поправьте .htaccess (90% редиректов лежат в нем).

mendel:

Откроет. Особенно если послушать совет гугла (не самый его удачный совет для массового применения) и инлайнить ЦСС нужный для первого экрана.
Первый экран шириной в 320px, и высотой сколько там? 768? Первый экран на мобилке вполне себе за секунду загрузится если слишком не перегружать. А вся страница - секунд за пять. Пять секунд это очень много. Очень. Половина успеет кликнуть куда-то за это время, и хорошо бы у них при этом все получилось. Сидеть и ждать пока интерфейс подгрузится это печалька для сайта.

О, мы уже уходим в тонкости оптимизации CSS. 100кб это уже сжатый размер, примеров полно.

mendel:

Для того чтобы сайтмеп работал у тебя банально должна существовать хтмл-версия того что ты подгружаешь по аяксу. Не важно укажешь ты ее через сайтмеп, через хреф ссылки которую ты перехватываешь по онклик или оформишь их по "хитрому" формату яндекса - не суть. Данная страница у тебя УЖЕ ДОЛЖНА БЫТЬ. Иначе ты сможешь указать только ссылку на кусочек страницы, и это будет крайне плохо отображаться в выдаче и пользователям перешедшим по этой ссылке оно не понравится. А раз такая ссылка у тебя уже есть, то что тебе взападло ее указать в хрефе, а аяксить по онклику? Чисто "А Баба Яга против"?

Да не спорю я, что существуют чистанамахмтл-куски, которые ты предлагаешь показывать по ссылке. И это можно делать. Можно и отлавливать юзеров, запретивших JS, как и запретивших показ рекламы, как и многое другое. Вопрос в том, что если мы посмотрим даже на крупные порталы, то без JS на том же ситилинке хрен добавишь товар в корзину. Упс. Про кнопки "к сравнению" и прочие я и вовсе не говорю. А уж там трафик огого, несравнимый с обычными проектами. Просто люди, отключившие JS, вряд ли смогут даже зарегистрироваться, не то что пройти цепочку до оформления товара. Ну и да, они сами себе враги, как я уже говорил выше. Думаю, аналогичная ситуация будет и на остальных крупных ритейлерах.

mendel:
Чтобы получить дополнительные НЧ которые ты и не придумаешь а юзеры случайно насочитают?
Очень сильно от проекта зависит. У части комменты зло, у части - добро. Часть - посередине.
Помню примерно когда ты знакомился с сео, у меня был метапоисковик, и был забавный случай. Яндекс начал лить тысячи переходов на страницы моего тестового сервера. Оказалось что я при копированиях потерял роботс и в индекс попала моя выдача. В выдаче были сниппеты кучи сайтов по теме одного конкретного запроса. И оказалось так, что один очень популярный запрос ни на одном сайте не присутствовал целиком, а были только частями - в одном снипете одно слово, в другом другое. А у меня было, да. У меня ведь несколько снипетов было. Этот прием потом частенько встречал у доров. Но у меня оно получилось случайно. (Веселее было когда яндекс мне истио заддосил, и тоже от ошибок в роботсе, но это была уже другая история).
К чему история? К тому что с комментариями тоже самое. Их для этого и используют. В нулевых конечно проще было некачественный контент в индекс загнать, но суть не меняется.
Индексация комментариев нужна. Или не нужна. Но забивать на них просто потому что "есть же современная технология" - глупо.
Вот ты уже и сам начал городить сложный огород. Лишь бы не сделать правильно.
Если уж переписывать готовые интерфейсы то тогда уж лучше на CSS переписать, половину вещей можно и так сделать. Да только гембель это. Проще прописать правильную ссылку, ведь напомню - хтмл-версия у нас УЖЕ ЕСТЬ, ведь мы хотим чтобы яндекс нас индексировал).

Ну так банальный AJAX сейчас прекрасно индексируется и яндексом, и гуглом. Напомню, они не html странички индексируют, а dom-дерево. Да, по возможности. Но по опыту, у них это прекрасно получается. Ты же предлагаешь плодить костыли для того, чтобы учесть полтора человека именно на сайте, не в выдаче, которые все равно ничего толкового на сайте не сделают.

mendel:
а ЖС по нормальному грузится в конце, после всего.
Еще раз - либо твой жс тормозит всю страницу, либо его тормозят картинки и прочий хлам.Тормозить жс - меньшее зло, а значит стоит быть готовым чтобы сайт мог жить без жс.
Типичный кейс - зайти на главную страницу сайта и сразу кликнуть на ссылку "Цены" или "Продукция" или еще что-то, не дожидаясь загрузки основного контента страницы. И эта ссылка должна быть рабочей, иначе клиент может уйти. 100% моих сайтов на бутстрапе. Грузятся на медленном интернете и работают без жс. Что я делаю не так?

Ну раз они грузятся, значит и мои без БС будут работать аналогично (библиотечка jQuery уж точно не тяжелее сборки БС, который ее, кстати, использует местами).

mendel:
Используй. Кто против то? Просто помни о последствиях. В идеале Аякс ускоряет то что и так работает. Ускоряет а не подменяет. Чувствуешь разницу?

Так я помню и делаю осознанный выбор, а ты почему-то считаешь что открываешь мне мир =) Без обид, но, думаю, каждый останется здесь при своем мнении. Спасибо за беседу!

Выдача по коммерческим запросам будет строиться исходя из региона запроса. По общим (без привязки к региону) выдача практически ничем не отличается. Единственный момент, что ранжирование может быть несколько хуже, если ваш сайт использует гео "Россия", а запрос идет из Казахстана (будут выше сайты с гео "СНГ" при прочих равных).

Индексная база же, насколько я понимаю, у Яндекса общая в пределах языка (на турецком вряд ли ваш сайт отсветит).

Цифры очень отличаются в различных тематиках. Название продукта может быть на русском, английском, транслитом, сленговым наименованием и проч. Соответственно, вычислять тошноту текста программными средствами особо не стоит, учитывая все вышесказанное.

А вообще писать текст без упоминания названия предмета как минимум странно =) Самый простой и один из самых действенных рецептов - прочитать текст вслух. Если ухо ничего не режет, публикуйте!

---------- Добавлено 07.06.2017 в 03:01 ----------

Hammer8:
И привет Баден-Баден. Речь шла о названии товара в описании.

Внимательно перечитал весь топик, не нашел уточнения об этом. Речь идет о тексте (см. шапку).

Мне кажется, или недавно эта тема обсуждалась?

По сабжу:

если вы хотите перенести сайт без потери трафика, то вариантов кроме редиректов нет.

Если трафик не важен - то можно убить первый сайт, дождаться его выпадения из индекса и залить на новом домене.

Ааа, точно. Насчет фейсбука тема. Так чем вариант лить на прокладку не устроил?)

Ссылки с википедии очень хорошо работают, более того, очень хороший эффект дают к приросту естественной ссылочной массы (у меня на развлекательном проекте за год +100 с лишним доменов пришло потому, что разместил несколько ссылок на свои статьи как на вики-источник). Позиции у сайта почти все ТОП. Совпадение?)

Coolteams:
Интересно, как количество страниц может влиять на ранжирование? 🍿

Очень просто: сайт, отвечающий на все возможные сходные запросы по одной тематике, будет ранжироваться значительно лучше сайта "обо всем", на одной или нескольких страницах затронувшего тему.

mendel:
Как правило если тебе ради этих 1% (которые в совокупности принесут тебе 5% трафика по косвенным каналам) нужно много усилий значит у тебя что-то не так в общей структуре сайта или верстки.

Отвечу по пунктам. 1% юзеров со старыми девайсами не приносят 5% трафика по косвенным каналам. Жду реального кейса-опровержения.

mendel:

Плюс у тебя жЫрно проходит через всю тему одна типичная ошибка новичка (в любой сфере) - ты увидел один кейс и за него зацепился.

Я говорю не на примере какого-то кейса, а исходя из собственного опыта. То, что у меня на этом форуме молодая регистрация, совсем не значит, что я новичок. Основная моя клиентская тема находится на мауле, можешь глянуть (раз уж мы перешли на "ты") по нику Nell в соответствующем разделе.

mendel:
Отсутствие ЖС это не только древние устройства или носкрипт. Это еще и тормозящий интернет (зашел в полуподвальное кафе с толстыми стенами, даже не уезжая из своего миллионника)

Чем принципиально отличается загрузка с сервера JS-файлов и CSS/HTML? Ответ: ровно ничем. --> Если у юзера печальный инет, он и сайт-то нормально не откроет. Но разве я где-то отрицал необходимость оптимизации кода (сжатие/минификацию)? По поводу асинхрона отвечу ниже.

mendel:

и малограмотные роботы. Гугл справляется хорошо. Яндекс - при множестве ограничений, но в принципе способен. Бинг и большинство мелких пауков - не умеют. Вебархив думаю тоже не умеет, хотя тут нюансы, некоторые варианты он увидит чисто случайно. Сеошный софт? Через одного, если не через двух. Собственный краулер на сайте для специфичного поиска? А фиг.

Кто-то отменил карту сайта /sitemap.xml, категории по прямым ссылкам, комменты в боковом меню (если очень хочется, можно вывести их и отдельно, как предлагаешь ты, вот только нафига? Профита в этом крайне мало).

mendel:

А что надо для нормального сайта?
Использовать нормальные виджеты/библиотеки.
Да, суперкрутой-новый, который поддерживает только суперсовременные браузеры и мобилки это хорошо. Но вместе с совместимостью с носкриптом он выкинет тебе еще и 30% старых мобильных браузеров.
Не перегружать графикой, особенно первый экран.
И здесь хочется остановиться особо.
Если ты соблюдаешь правила и нормально оптимизируешь страницу, то большинство скриптов у тебя неблокирующие, и либо ассинхронные либо в конце.
И то и другое ведет к тому что у нас регулярно будут ситуации когда скрипт еще не загрузился а пользователь уже тыкает по интерфейсу.
Например уязвимое место это выпадающие меню. Скрипты не подгрузились, и жс-меню тупо не работает. Причем в браузере. Причем в самом новом.
Клиент психует, да.
Если мы не соблюдаем стандарты, вешаем тонну блокирующих скриптов в шапке, то делаем сайт сильно медленным, а в случае тормозов по ресурсам (как в предыдущем примере) - страница тупо не будет отображена все время задержки.

Все верно. Вот только критичные скрипты вполне себе можно написать на голом JS (чтобы в момент, когда тащится jQuery и другие библитеки из конца кода, клики уже работали), который, кстати, уже и на древних устройствах есть.

mendel:
Нет, конечно. На твоем сайте все хорошо. Ты заходишь на него 100500 раз, и тормоза были всего один раз. Первый. Да и то звезды совпали так, что в твоем доме гигабитный интернет и в тот день не было особых задержек нигде, так что загрузилось оно секунды за две, не страшно.... у других правда будет 5 секунд и фактическая недоступность с мобилки, но то ерунда, зато не будет проблем что на десктопе и крутых сайтах страница отобразиться без жс....
Что надо чтобы этого не было?
В описанном примере сущая мелочь - соблюдать стандарты и в меню у верхней ссылки которая открывает меню сделать ссылку которая таки ведет куда-то, а не просто "#" как это любят делать. Ну и чтобы там куда она приведет - была возможность попасть на те страницы которые были в том меню которое не открылось (например страница категории страниц, со ссылками на них). Всё.
И на случай сбоев, и на случай медленного мобильного интернета, и на случай ножс - всё будет работать. И пауки точно проиндексируют. И вообще всё грамотно. Небольшая деградация интерфейса - ну извините. Зато работает.
Что нужно в случае аякса? физические ссылки на хтмл-версию.
Либо делаем хреф на хтмл, и на ней же онклик с аяксом, либо как у яндекса советуют оформляем, не суть.

Да я не спорю с возможным подходом, он имеет место быть, некоторые его используют. Я говорю о другом: критичные куски интерфейса все равно чаще всего не сделать без JS. Если печалят вес библиотек и общая скорость загрузки сайта - писать на голом JS критичные куски или делать прекомпиляцию кода с нужными функциями. Но, опять же: зачем? Еще раз: юзер с плохим инетом не подгрузит и обычный CSS, который в случае большого магазина, например, легко вылезает за 100кб. Более того, сейчас огромное количество сайтов пишется на бутстрапе (крайне его не люблю) и аналогах, вес которых вообще запределен. Что теперь, запретить фреймворки?)

mendel:
Ну и теперь у меня вопрос. Если нам все равно делать хтмл-версию, то на кой нам делать аякс? Чтобы две версии содержать?) Нет, вопрос риторический конечно. Для красоты, для удобства, для скорости. Но это именно дополнительные фишки. Не основные.

Большинство сегодняшних интерфейсов так или иначе используют AJAX. Одним из основных преимуществ его, которое тебе в текущем обсуждении будет достаточно сложно оспорить, является обновление кусков страницы (а не полная её перезагрузка), что критично важно для устройств с медленным интернетом.

Вряд ли бяка, т.к. на статейниках часто вылетают даже очень качественные страницы из индекса, а затем за ап-два возвращаются. Скорее не бяка, а недопилка алгоритмов, или же "фича" с каким-то хитрым видом тестирования.

Всего: 130