ildseo

ildseo
Рейтинг
68
Регистрация
09.03.2017
https://semant.ru/
J_J:
Можно отключить эти товары в разделе где они были, чтобы они там не показывались среди всех товаров. А на странице самого товара сделать надпись "нет в наличии".

Я бы еще добавил, помимо "Нет в наличии", добавить что-то типо - вместо данного товара вы можете приобрести аналогичные товары и сделать выборку.

Павел Горбунов:
keyassort , а не key collector.

keyassort также пользовался, удобная и недорогая программа в использовании. Единственно на сколько я помню, необходимо для класстеризации данных покупать яндекс xml лимиты.

Сейчас пользуюсь JustMagic, удобный класстеризатор, плюс есть своя база по расширению семантики и много фишок, рекомендую.

Truelove:
Спасибо, а как могут вообще появиться такого типа УРЛ?

Урлы со знаком "?" обычно бывают с Get-параметром, могут появиться при пагинации страниц, фильтрах и т.д.

trendy:
Ну это как-то халтурно, нет? Тексты будут отличаться несколькими словами. Напротив, в категории мы можем писать большие уникальные тексты, заточенные под товары, которые находятся в этой категории.

И это не отвечает на вопрос, как сделать перелинковку.

Под теги мы можем писать уникальные тексты, не понимаю в чем проблема?

Пример теговой страницы: https://www.cosmorelax.ru/catalog/tags/figury-iz-kamnja/

Тексты должна быть написана ДЛЯ ЛЮДЕЙ.

Тексты должна быть разбита на логичные абзацы. Абзацы должны быть логически связанны между собой.

Любое слово, например 'окна' и все его словоформы 'окон', 'окнами', 'окно' НЕ должны употребляться в сумме больше 7 раз!!!

По возможности использовать в статье нумерованные или ненумерованные списки.Академическая тошнота <9%

Очень желательно разбавлять сухой текст числами, например статистическими данными.

У вас очень сухой текст и жирным выделяете слишком много слов в текстах.

Теги - это отдельная страница, для нее обычно пишется текст. Такие страницы попадают в индекс и приносят трафик.

Вот как раз для получения трафика используются теги, для охвата силы семантики:

http://prntscr.com/evx97u

Для поддоменов нужен отдельный robots.txt с запретом на индексацию.

Для упрощения поддержки таких доменов, они делаются синонимами основного домена, а значит имеют общий контент, общую корневую директорию, а значит и общие файлы, в том числе и robots.txt.

Например, для сайтов site.ru и sub.site.ru корневая директория /home/www/site.ru (где и лежит их общий robots.txt).

Brutality:
Наверное, надо поработать с файлом htaccess в первую очередь? :)

Да, нужно вообще со внутреней оптимизацией хорошо поработать

Рекомендую работодателя, интересные проекты и крупные проекты, нестандартный подход к работе. Проработали больше чем полгода.

1 234
Всего: 37