Да тут все меняется. По разным исследованиям в ТОПе логриды.
Но тут, скорее всего, больше рулят охват темы, т.е. количество уникальных релевантных слов в тексте.
Обычно смотрим ТОП по нише и делаем немного больше количество слов, чем у топовых статей + стараемся максимально расширить семантику.
От уровня райтера зависит, сколько стоит и кто кого ищет( заказчики копирайтера или наоборот).:)
Как вариант, можно начинать не с фриланса, а в агенстве джуниором, т.к. чтобы научиться писать продающие тексты, нужно научиться маркетингу и продавать.
Когда распыляешься на разные специальности, в итоге, не становишься эспертом ни в чем. И тогда не сможете поднять чек.
Мы много работаем с западными райтерами, и я вижу, что люди стремятся быть лучшими в каких-то узких нишах (например, все больше встречаю крипторайтеров, it райтеров и т.п.). И даже необязательно писать продающие тексты - если вы хорошо разбираетесь в какой-то интересной нише, то сможете найти более богатых клиентов.
Как они находят таких клиентов? Просто пишут очень качественные статьи, серьезно работают над ними и публикуют в популярных изданиях типа forbes, wikihow и т.п. Таким образом они развивают свой бренд, и многие охотятся за такими райтерами, готовы платить хорошие деньги.
Я думаю, что эти тенденции скоро придут и в рунет, точнее это уже сейчас есть, просто мало людей пытаюсь работать по этим принципам.
По сути сейчас почти каждому райтеру дают ТЗ с ключевыми словами, если нужны тексты для веба. И что всех после этого называть seo-копирайтерами?
И еще CEO и SEO разные понятия. Вдруг кто-то неправильно поймет. )
По идее seo копирайтеры это по большей части блогеры, т.к. им нужно и в seo разбираться и писать интересно.
Остальным видам бизнеса лучше разделять эти обязаности, т.к. на больших объемах многозадачные специалисты не всегда эффективны. Конвеер еще Генри Форд в свое время популяризировал.
А есть ли смысл разделения? Какая в этом польза?
Конечно, людям свойственно как-то называть уровни квалификации, но думаю важнее то, насколько эффективен специалист.
Всем новичкам свойственно делать ошибки, подражать более хорошим специалистам. Но если его уровень подходит под проект и оплачивают нормально, то тоже хорошо.
Тут по ходу больше имеет значение общий уровень интеллекта и знаний человека. Т.к. копирайтер = райтер + маркетолог и т.п.
Единственный смысл вижу в названиях уровней квалификации для продажи своих услуг, когда например мы рекламируем свой бренд и популярные общеизвестные скилы могут показаться интересными для клиентов.
ПФ "на выдаче", наверно, будет только в том случае, если запрос по бренду. Последнее время начали об этом говорить. В остальных случах CTR только.
Вобще накручивать исскуственными способами рисковано, если проект серьезный. Если какие-нибудь доры, то ок.
Хорошо бы накручивать нормальным бренд маркетингом и работать над юзабили сайта, чтобы улучшать ПФ на сайте.
Скорее всего, каталог ссылок - такой спамный список всех "партнеров" с одной страницы не прокатит.
Поддерживаю подход, когда идет обмен друг на друга нормальными качественными статьями.
Ну а потом, конечно, чекать специальными тулзами. Да, и смотря в какой нише.
Чектрастом можно подгружать еще ряд других показателей (Majestic, SimilarWeb, Semrush .. )
Тут надо их все смотреть и делать выводы. + зайти на сайт и глазами посмотреть.
Под запад обычно достаточно CF/TF + SimilarWeb (organic traffic), чтобы примерно понять, как гугл относиться к сайту. Под рунет, наверно, у кого база больше - можно смотреть (semrush, serpstat)
Под вордпресс недавно начал тестить плагин "Hide Links".
Он в исходном коде ссылку делает такую
<span class="link" data-link="/contact/">Contact us</span>
, а через js переделывать на обычную
<a href="/contact/" target="_blank" rel="noopener">Contact us</a>
что скажете о таком варианте?
Вроде грамотно сделали с noopener https://developers.google.com/web/tools/lighthouse/audits/noopener
Но как для гугла такие подмены ссылок? Он ведь js умеет читать.
Думаю, в таких случаях нужно индивидуально подходить - смотреть, кто заходит, по каким алгоритмам ходит по сайту и что как делает и блокировать или редиректить на какой-нибудь специальный лендинг.
Посмотрите разные варианты антифрод систем.
Например, clickfrog.ru Они определяют ботов с тизерных и контекстно-медийных сетей и т.п. Как я понял, определяют довольно сложных ботов. Возможно, на основе их скриптов можно будет настроить систему под ваши задачи или у них уже есть что-то.
А если там боты слабые, то и Яндекс, Гугл определят их своими антифрод системами и все будет ок.