- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Маркетинг для шоколадной фабрики. На 34% выше средний чек
Через устранение узких мест
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Есть у нас пациент (каталог 20-30 товаров), который руководство хочет отдать на продвижение некому "маркетинговому бюро".
И вот получаю файлик с названием Техническая_оптимизация_бла_бла_бла.docx
Хотелось бы разобрать некоторые рекомендации из данного файла, а также выслушать экспертное мнение по ряду вопросов:
1. Были написаны "трафареты" для автоматического заполнения title, description и keywords. Заполнение title и description было сделано незамедлительно. А вот keywords предлагается заполнять так: "название_товара москва оборудование скуд".
2. Рекомендуется создать HTML-карту сайта для пользователей, т.к. "служит для облегчения пользователям навигации по сайту и уменьшает вложенность веб-документов". При это максимальный уровень вложенности страниц - 3 шага.
3. "Необходимо создать карту сайта .xml, исключив параметры <lastmod>, <changefreq>, <priority>".
4. Robots.txt... рекомендуется дописать правила такого типа: "Disallow: /images/ | Allow: /images/*.png | Allow: /images/*.jpg". Т.е. запретить индексацию папок, но разрешить индексацию соответствующих файлов из этих папок.
5. "Тэги <strong>, <b>, <em>, <i> не рекомендуется использовать для выделения на сайте, чрезмерное употребление может привести к наложению фильтра ПС...". У нас есть несколько страниц, где используется тег <strong>, и выделены им реально важные мысли в тексте, а не набор ключевых слов. 2-4 слова в теге, 3-5 тегов <strong> на 2000-4000 символов.
6. Хлебные крошки (размечены по фэншую schema). У нас размещены только на конечных страницах (карточки товаров + несколько лендингов внутри сайта), в категориях/разделах — хлебные крошки скрыты. Так придумал дизайнер и это выглядит логично, т.к. шапка с меню плавает по странице при скролле, а в каталоге на первом экране всех категорий сделана дополнительная навигация, отмечающая текущее положение пользователя на сайте. Так вот "рекомендуется разместить элемент «Хлебные крошки» на всех страницах ресурса".
7. PageSpeed Insights. Рекомендуется "по возможности устранить ошибки". Сейчас оценки: mobile 62 / 100; desktop 66 / 100
Стандартные советы: все сжать и поделить сократить. Сайт при этом рендерится менее 2 секунд при первом посещении и ~0,5 секунды при дальнейших переходах.
8. И наконец, главный вопрос жизни, вселенной и всего такого!
а. На каждой странице сайта есть тег <link rel="canonical">, прописанный правильно, т.е. ведёт куда нужно. Оптимизатор говорит: "...страницы через атрибут rel="canonical" ссылаются сами на себя, что негативно воспринимается поисковыми системами и ухудшает индексацию сайта ... поэтому необходимо удалить атрибут rel="canonical" со всех страниц сайта."
Ну ведь бред же?
Яндекс чётко говорит: ...если на странице атрибут rel="canonical" расположен с указанием непосредственного адреса этой страницы, робот посчитает ее канонической. Данная страница будет индексироваться и появится в поисковой выдаче Яндекса.
б. Оптимизатор даёт стандартные рекомендации по удалению дублей страниц: /index.php, /?абракадабра, /////, /¶ms, со слешем и без слеша и т.п. — зачистить все дубли с помощью Redirect 301 (хотя по некоторым "status 404" будет правильнее, но не суть).
Да, сайт и правда отдаёт "status 200" по всем перечисленным адресам. НО! На каждой странице прописан rel="canonical" (см. п.8.а.), и все эти дубли не индексируются, т.к. есть каноническая страница.
Как предпочтительнее избавляться от дублей Redirect 301 или rel=canonical? Почему?
ЗЫ. Ссаными тряпками не кидайтесь, я не настоящий сварщик. Хочется услышать мнение знатоков, потому и пишу.
Не эксперт, но даже мне после первого пункта все понятно.
Не эксперт, но даже мне после первого пункта все понятно.
Можно подробнее?
ЗЫ. Всё наоборот, а сквозняк был на старой версии сайта, теперь всё по-другому, ага.
SnikerS_HB, я про заполнение keywords. Это уже не seo, а шаманизм.
1.
Ни пользы ни вреда. Вам уже правильно написали - "шаманизм", но можно и сделать кейвордс если есть желание.
2.
Не нужна 100%
3.
Если структура простая, уровни вложенности небольшие и страниц не 100500 то Вы правы - не нужна
4.
Смысла нет да и зачем робота грузить сложными условиями сканирования ? А вдруг он заглючит ?
5.
А вот тут - да. Не стоит стронгом злоупотреблять
6.
Дизайн портить не надо, но можете крошки в код добавить везде, а отображать визуально только там где Вам нужно (как в вашем случае - конечные страницы).
7.
Без фанатизма по возможности можно и подтянуть попугаи в пейджспид - по желанию.
8.
Полный бред - каноникал со страницы на саму себя это нормально !
9.
А вот тут да - 301 редирект всяко лучше. Смотрите - Яндекс например тег ноуиндекс полгода не воспринимал пока они этот баг не исправили. Кто его знает что там у ботов поисковиков заглючить может и они тег каноникал вдруг не воспримут правильно в какой-то момент ? И дубли возьмут и появятся ? 301-редирект всяко надёжнее.
Были написаны "трафареты" для автоматического заполнения title, description
Ну покажите трафарет / пример заполнения.
А то завтра будут жалобы почему не показывает?
"Необходимо создать карту сайта .xml, исключив параметры <lastmod>, <changefreq>, <priority>".
Зачем исключать?
Robots.txt...
боты обращаются к robots.txt в нижнем регистре. И за регистром ваших /запретов тоже следите...
На каждой странице прописан rel="canonical" (см. п.8.а.), и все эти дубли не индексируются, т.к. есть каноническая страница.
Как предпочтительнее избавляться от дублей Redirect 301 или rel=canonical? Почему?
А потому что в хелпах про rel=canonical писали — не как про средство от избавления от дублей в индексе, а как о предпочтительном для выдачи варианте дубля (и вы не можете контролировать поведение бота, даже если фактически он сегодня ведёт себя не совсем так, как написано в хелпе, это завтра может измениться)
Но фактические дубли потребляют лимит бота на количество обращений к сцайту... поэтому — не только 301 со всего, похожего на дубли, но и полное отсутствие сцылок на дубли внутри сайта. (а по отсутствию дублей в индексе вы не можете делать вывода о том, что сервак их не отдаёт. Может бот их сам отфильтровал)
А что маркетинговое бюро говорит по поводу SEO, юзабилити? Или все пункты в их "технической оптимизации" это и есть все то, что продвинет сайт в топы? Или это просто заманушка, которая должна показать заказчику, что по остальным вопросам контора "тоже профи"?
Тут сейчас много споров будет. а по сути, вы получили стандартный технический аудит. Качество конечно водяное, но руководство на него повелось.
Нужно доказывать результатами продвижения, чтобы клиенты не уходили.
Оптимизатор говорит: "...страницы через атрибут rel="canonical" ссылаются сами на себя, что негативно воспринимается поисковыми системами и ухудшает индексацию сайта
Из хелпа Яндекса:
Также если на странице атрибут rel="canonical" расположен с указанием непосредственного адреса этой страницы, робот посчитает ее канонической. Данная страница будет индексироваться и появится в поисковой выдаче Яндекса.
"Тэги <strong>, <b>, <em>, <i> не рекомендуется использовать для выделения на сайте, чрезмерное употребление может привести к наложению фильтра ПС...
Мутная рекомендация. Так не рекомендуется использовать вообще или чрезмерно?
Рекомендуется создать HTML-карту сайта для пользователей, т.к. "служит для облегчения пользователям навигации по сайту
Что ж это за навигация такая жуткая, что пользователю удобней будет карту сайта использовать. Может нужно было проанализировать юзабилити и дать рекомендации по навигации?
Во-первых, огромное спасибо, всем кто потратил время и ответил на мои вопросы.
... 301-редирект всяко надёжнее.
Понял, принял. Спасибо.
Ну покажите трафарет / пример заполнения. А то завтра будут жалобы почему не показывает?
Да там простенько автозаполнение вида: Тип_товара Бренд Название_товара: купить в Москве бла-бла-бла
Дескрипшн чуть посложнее с включением категории.
Но это всё так, чтобы было, на всякий случай. Т.к. товаров немного для большей части уже написаны уникальные title и description.
> создать карту сайта .xml, исключив параметры <lastmod>, <changefreq>, <priority>
Зачем исключать?
Я так понимаю, чтобы не заморачиваться с приоритетами и частотой обновления разделов.
Урлы в файлик собрали? — Ставим галочку, что отработали. =))
...по отсутствию дублей в индексе вы не можете делать вывода о том, что сервак их не отдаёт. Может бот их сам отфильтровал)
Сам по себе CCK кривые урлы не генерит, но если руками дописать слеши или параметры, то сервак отдаст 200 ОК.
rel=canonical при этом будет указывать на правильный урл, благодаря этому дублей в индексе и нету, они же все неканонические.
...просто заманушка, которая должна показать заказчику, что по остальным вопросам контора "тоже профи"?
...вы получили стандартный технический аудит. Качество конечно водяное, но руководство на него повелось.
Ага, "стандартная болванка". Только бы не забыть адрес сайта поменять.
Резюме:
И вот получаю файлик с названием Техническая_оптимизация_бла_бла_бла.docx
Это НЕ техническая оптимизация сайта.
Остальное как минимум на половину (диагонально посмотрел) - такая же некомпетентная ересь.