seoxi

seoxi
Рейтинг
0
Регистрация
12.02.2021
Sherman13 :
Доброго времени суток. Подскажите, пожалуйста, очень нужно для массового составления ТЗ, соответственно, для экономии времени. Пробовал техзадатор, не очень зашел. Спасибо.

У Пикселей отличный анализатор.  Один из лучших.

Просто нужно уметь пользоваться.

Он анализирует и семантику, и объем страницы в целом, и в этом достаточно точен. Да, нужно корректировать объем, и ключи тоже (например для ИМ, если у тебя на странице 10 карточек товаров, а у конкурентов в среднем 30, - тебе порекомендует +20 вхождений, - разумеется, не нужно все это пихать в зону текста).

Есть платные сервисы, которые отдельно каждую область страницы анализируют. Но во-первых, еще ни одного нет, который бы все зоны документа правильно воспринимал на разных сайтах, во-вторых - если перепроверить вручную - косяков очень много.

Если автор хочет какие-то решения "вставил ключи - получил ТЗ - отправил копирайтеру без разбора" - это перечисленные техзадаторы, сеоциллин, и пр. Но на самом деле так нельзя - это не работает хорошо.

Лучше взять Пиксель или Раш Аналитикс, немного включить логику, и добавить ручной работы (поправить). Это не так быстро, как "вставил ключ - скачал файл", но время все равно экономит.

А по готовности контент еще и Тургеневым желательно проверить). Но тоже с логикой и без фанатизма.

Xubart #:

Страшно. Если фильтр актуален, основноф сайт добью..

Аффилиат-фильтр официально не существовал. Платоны его всегда отрицали) Так что, очень странно, что вам его кто-то подтверждал.

Сейчас  фильтр работает, но иначе. Из индекса страницы не выкидывает, просто не ранжирует по одним и тем же запросам оба (2,3,5) сайта в ТОП10.  Сейчас у очень и очень многих магазинов по нескольку сайтов. Не дублируйте адреса и телефоны, если есть возможность - разместите уникальные реквизиты. Тогда точно нечего бояться.

isa0962 #:

Остальные страницы будут индексироваться?

Да.

Вы всегда все изменения можете предварительно проверить в Яндекс.Вебмастере, без внесения изменений на сайт.

Добавляете директиву в форму с robots, которую вывел Яндекс:
https://i.imgur.com/ev0NBr1.png

Ничего в ней не нажимаете.

Внизу форма для проверки. Туда вставляете нужные для проверки урлы, и нажимаете "Проверить"

https://i.imgur.com/7pOsebH.png

Все эти действия никак ни на что не повлияют, никаких изменений на сайт (или для Яндекса) не внесут.

Runli #:
Все привет. Ребята, прошу строго не судить, я новичок. 
В общем, создал robots.txt и указал путь к sitemap.xml, но в результатах анализа выдает ошибку "Обнаружена неизвестная директива" хоть и путь к сайтмапу идет правильно ( https://тут_мой_сайт/sitemap.xml ) но Яндекс всё равно ругается.

  sitemap.xml создавал через плагин google XML sitemap. Sitemap который создает сам WordPress отключил

Буду благодарен, если кто-то из знатаков подскажет 

Покажите саму директиву "Sitemap:" (как все это выглядит у вас в роботс)

isa0962 #:
Как запретит только главную страницу сайта, это реализуемо?

Disallow: /$