ildseo

ildseo
Рейтинг
14
Регистрация
09.03.2017
https://semant.ru/
Павел Горбунов:
keyassort , а не key collector.

keyassort также пользовался, удобная и недорогая программа в использовании. Единственно на сколько я помню, необходимо для класстеризации данных покупать яндекс xml лимиты.

Сейчас пользуюсь JustMagic, удобный класстеризатор, плюс есть своя база по расширению семантики и много фишок, рекомендую.

Truelove:
Спасибо, а как могут вообще появиться такого типа УРЛ?

Урлы со знаком "?" обычно бывают с Get-параметром, могут появиться при пагинации страниц, фильтрах и т.д.

trendy:
Ну это как-то халтурно, нет? Тексты будут отличаться несколькими словами. Напротив, в категории мы можем писать большие уникальные тексты, заточенные под товары, которые находятся в этой категории.

И это не отвечает на вопрос, как сделать перелинковку.

Под теги мы можем писать уникальные тексты, не понимаю в чем проблема?

Пример теговой страницы: https://www.cosmorelax.ru/catalog/tags/figury-iz-kamnja/

Тексты должна быть написана ДЛЯ ЛЮДЕЙ.

Тексты должна быть разбита на логичные абзацы. Абзацы должны быть логически связанны между собой.

Любое слово, например 'окна' и все его словоформы 'окон', 'окнами', 'окно' НЕ должны употребляться в сумме больше 7 раз!!!

По возможности использовать в статье нумерованные или ненумерованные списки.Академическая тошнота <9%

Очень желательно разбавлять сухой текст числами, например статистическими данными.

У вас очень сухой текст и жирным выделяете слишком много слов в текстах.

Теги - это отдельная страница, для нее обычно пишется текст. Такие страницы попадают в индекс и приносят трафик.

Вот как раз для получения трафика используются теги, для охвата силы семантики:

http://prntscr.com/evx97u

Для поддоменов нужен отдельный robots.txt с запретом на индексацию.

Для упрощения поддержки таких доменов, они делаются синонимами основного домена, а значит имеют общий контент, общую корневую директорию, а значит и общие файлы, в том числе и robots.txt.

Например, для сайтов site.ru и sub.site.ru корневая директория /home/www/site.ru (где и лежит их общий robots.txt).

Brutality:
Наверное, надо поработать с файлом htaccess в первую очередь? :)

Да, нужно вообще со внутреней оптимизацией хорошо поработать

Рекомендую работодателя, интересные проекты и крупные проекты, нестандартный подход к работе. Проработали больше чем полгода.

trendy:
Всем привет!
Интернет-магазин. Чтобы точнее отвечать на запрос пользователя в рекламе, начал делать категории товаров, которые не вывожу в навигацию. Например, "женские сапоги оранжевые с рисунком". В навигации этой категории нет, но она доступна по прямой ссылке из рекламы. Также был расчет на сбор НЧ трафика из органики.

Товаров добавлено еще не так много, но категорий уже какое-то сумасшедшее количество - боюсь, если так продолжится, управлять этим всем будет сложно (потому что каждый новый товар надо добавлять ко всем нужным категориям, а для этого их надо все просмотреть).

Подумал, что может более правильным решением будет в категориях оставить только то, что доступно из навигации по магазину? А все остальное делать фильтром, когда результаты работы фильтра доступны по урлу (то есть параметры фильтра зашиты в урл)?

Как вообще обычно делают?

Обычно в таких случаях возможно сделать два варианта:

1) Внедрить теги для страниц категорий, как к примеру в свое время внедрил вики-март. Т.е. НЧ запросы будут использоваться в страницах-листингах, например родителем для страницы женские сапоги оранжевые с рисунком будет категория "сапоги".

2) Использовать фильтры для страниц-листингов, свойства для фильтров необходимо выбрать исходя из семантики.

В идеала для синергетического эффекта лучше использовать теги и фильтры, чтобы охватить как можно больше потенциал семантики.

1 234
Всего: 36