Doitnowseo

Рейтинг
3
Регистрация
29.04.2017
studentz:
работаю с текстсейл

покупаю и продаю там статьи с 2009 года, никаких проблем не возникало. Еще и рефералы есть, с которых выплаты идут.

Studentz,

1. А по каким примерно ставкам вы продаете статьи?

2. Что вы подразумеваете под реферелами? Буду благодарен, если расскажете более подробно ;)

Yet_warm, спасибо за ответ.

Буду благодарен, если кто-нибудь подскажет именно текстовые материалы, так как базу сложно будет осваивать по видео.

Спасибо за ответы.

Отвечаю на первый вопрос ТС.

Я копирайтер и поэтому я всегда фокусируюсь на контенте.

Я рекомендовал бы вам поступить следующим образом:

1) составить СЯ

2) написать контент на важные категорийные страницы

3) написать хоть по 1000 знаков на все категорийные страницы

4) заказать технический аудит у соответствующих специалистов в соответствующем разделе на Серче

5) устранить недостатки

6) взять отпуск на 2 недели

7) начать кампанию "вывести в топ-1 2 ВЧ запроса, которые вам нравятся (не самые крутые ВЧ запросы) за счет белого ссылочного"

8) Провести оценку юзабилити

9) Продолжать писать контент, пока не достигнете цели пункта 7

10) Взять отпуск на 2 недели

11) Что дальше?

Моя позиция: если по ссылке нет переходов, то она "плохая".

Отвечаю на первый пост ТС:

Я рекомендовал бы вам сделать следующее:

1) Составить СЯ

2) Написать неплохой копирайт на важные категорийные страницы

3) Написать хоть какой-нибудь копирайт на все остальные категорийные страницы

4) Взять отпуск на 3 недели

5) Начать кампанию "вывести белыми внешними ссылками 2-3 СЧ запроса в топ-1 из разных кластеров".

*6) После сборки СЯ вы сможете загрузить НЧ запросы в директ и посмотреть, что из этого получится. Вы можете установить очень низкие ставки в директе. Если по ним кто-нибудь к вам дойдет и у вас будет конверсия, то это будет означать высокий потенциал таких НЧ запросов. В таком случае вы можете повысить на них ставку + ориентироваться на них в пункте 8).

7) Достичь топ-1 по ключам из пункта 5)

8) Что дальше???

Я бы рекомендовал вам заказать технический аудит у специалистов в соответствующем коммерческом разделе данного форума.

Затем устранить все выявленные проблемы.

Затем создать семантическое ядро.

Затем создать полностью хороший контент на сайте (SEO + обязательно LSI (чтобы не было проблем с Баденом)).

Затем запустить кампанию "вывести 2 важных ключа в топ-1 с использованием белого ссылочного".

Затем взять отпуск на 2 недели.

Затем разделить ваш проект над подпроекты: 1) внешнее продвижение, 2) внутреннее продвижение, 3) форумы, 4) не-сео, 5) коммерческий контент, 6) информационный контент

Zeromar,

Это очень сложный вопрос. Я бы вот как сформулировал свою позицию: "необходимо делать и сайт, и ссылки для людей".

То есть, вы можете купить 100500 ссылок, но если у вас не будет по ним переходам, то это будут плохие ссылки.

Вы можете купить 5 ссылок и если по ним будут переходы, то это будут "хорошие" ссылки.

Поисковик понимает, что такое ссылочный взрыв. Следовательно, после него, возможно, будет фильтр.

Следовательно, необходимо растить ссылочную массу медленно и последовательно. Если делать это долго и последовательно, то, возможно, проще делать хорошие ссылки.

Я ищу заказчиков на fl.ru. Данная платформа привлекает самое большое количество потенциальных заказчиков. Я думаю, что это самый правильный вариант для развития. Я не думаю, что text.ru и другие площадки способны помочь копирайтеру хороших финансовых показателей.

Ведь каждый копирайтер хочет достичь высоких финансовых показателей (в частности, 2 показателей, ФЧ (финансовый час) и ФД (финансовый день)).

Таким образом, я предпочитаю оценивать платформы не по количеству лидов/конверсий в моей воронке, а именно по чистым прибылям, получаемым от портфеля заказчиков.

Серч, кстати, является в настоящий момент самой важной платформой для меня. На Серче собираются люди, которые не могут найти исполнителей на других платформах. То есть, это сеошники с высокими требованиями. Сеошники с высокими требованиями всегда имеют большие портфели заказчиков.

Основная проблема бирж составит в том, что там слишком низкие ставки. Такие ставки не позволили бы мне достичь моих показателей ФЧ и ФД. Я очень рекомендую всем копирайтерам начать отслеживать 2 данные показателя. Это позволит вам взглянуть на свою деятельность под новым углом и выявить уязвимости. После выявления уязвимостей, вы сможете сфокусироваться на сильных сторонах и выезжать на них. Нивелировать уязвимости, безусловно, бессмысленно - как в отношении своей деятельности, так и деятельности экосистемы "биржи". Вы не сможете "перевоспитать" тамошних заказчиков. Они будут хотеть получить шлак, дешево и быстро. Они привыкли получать шлак.

ErrorNeo:
Хотелось бы расширить известный для меня список факторов, влючая как проверенные, так и домыслы.
Докидывайте в комментах известные вам.

Попытаюсь перечислить известные мне:

1. Фактор доверия
а) Траст, выражающийся в удалённости (по ссылкам через посредников) от заранее заданного набора абсолютно доверенных сайтов, таких как википедия, гос.сайты, NASA, крупнейшие мировые СМИ. Единичные ссылки с таких ресурсов не в счет, для полноценной передачи траста требуется сколько-то ссылок на длительном временном периоде. Траст формирует "пирамиду" - наверху абсолютно трастовые сайты, чуть ниже те на кого эти сайты часто ссылаются, ниже те на кого ссылаются вторые итд.
б) возраст сайта
в) количество посетителей, которые его предположительно посетили за этот период.
г) наличие собственной аудитории - доли посетителей, которые периодически\регулярно возвращаются сайт.

2. Ссылочный фактор
Количество ссылок, каждая из которых имеет:
а) траст донора
б) кол-во людей, которые видели ссылку (как его оценивают поисковики не наша забота)
в) количество людей, которые по ней перешли (их обычные интересы скорее всего не учитываются).
г) тематику страницы источника
д) тематику окружения ссылки (текст предложения в котором она содержится. Текст соседних предложений)
е) анкор (при наличии) анкорные ссылки формируют анкор-лист, на основании которого ПС оценивает соответствие сайта поисковому запросу. Длинные (более 3 слов) повторяющиеся анкоры могут расцениваться как "оптимизаторские". Распределение анкоров должно быть естественным. Неестественно большая доля того или иного коммерческого анкора - переспам.
ж) тематику сайта источника

Назовем это ссылочный фактор

3. Поисковый фактор
а) если сайт попал в выдачу, какой у него (в целом) и страницы в частности CTR в сравнении с конкурентами.
б) нравится ли сайт тем кто туда перешел, или идут отказы.
в) возвращается ли пользователь на этот сайт в дальнейшем
г) как часто пользователи вводят запросы с намерением найти именно этот сайт (запросы названия сайта\фирмы или иных вещей, по которым ПС 90%+ уверены, что пользователь ищет именно этот сайт )

4. Технический фактор
а) отсутствие попыток загрузить сайтом недоступные файлы\скрипты итп
б) скорость загрузки сайта, укладывающаяся в стандартные величины.
в) регулярная (постоянная) доступность сайта
д) наличие покупного домена, на сколько времени вперед домен оплачен
е) фактор хостинга (коммерческий\бесплатный\неизвестный)
г) отсутствие вирусов и угроз, отсутствие IP сайта в спам-базах

5. Соц.сети
а) наличие групп\страниц в крупных соцсетях (если есть они и в выдаче по домену есть)
б) переходы из соц-сетей
в) интересы перешедших из соц-сетей скорее всего не учитываются

6. Фактор контента
а) контент на странице предположительно должен быть интересен пользователю, учитывая как текст\заголовки, так и alt-ы изображений.
б) актуальность страницы. при прочих равных более новый контент ценнее схожего более старого. Если контент дублирует старый, оригинал при прочих равных ценнее.
в) блоки контента на странице ранжируются отдельно. Каждый документ-страница ранжируется не только отдельно, но и внутри коллекции-сайта. Каждый сайт ранжируется внутри коллекции-индекса (тематики запроса).

7. SEO фактор
а) удалённость страницы, которая подходит пользователю по контенту от главной. (сколько переходов необходимо совершить, чтобы попасть на неё)
а1) Если страница удалена от главной на бесконечность (со стартовой попасть на неё нельзя) это дорвей. Если по всем остальным параметрам, кроме удаленности от главной этот дорвей подходит, вместо него, даже по вполне конкретному запросу, в выдачу может быть помещена другая, более "общая" страница сайта.
б) важность страницы для владельцев сайта. Ссылки на более значимые страницы идут первыми в списках ссылок и меню навигации.

8. Антиспам фактор
а) незаспамленность текстового окружения ссылки (много ссылок с одинаковым окружением могут быть спамом)
б) незаспамленность анкора (много одинаковых коммерческих анкоров следствие их неестественности)
в) дата\время создания ссылок. Много ссылок созданных в одно время, тем более с одинаковым текстовым окружением вероятно оцениваются как одна, если речи не идет о копировании статей.
г) если для публикации ПС может определить никнейм или емейл автора, никнеймы и авторы должны материалов, ссылающихся на сайт должны быть разные. Логично, что 20 упоминаний на разных ресурсах от 20 разных людей имеют больший вес, чем 20 упоминаний от одного и того же человека. Даже если они на разных ресурсах.


Возможно что-то забыл. Многого не знаю. Просьба дополнять

Факторы, которые тут не рассматирваются:
1. региональность.
2. изменения в выдаче на основе информации, известной о человеке совершающем запрос (интересы, возраст, пол итд)
3. изменения на основа новостей, трендов, времени года, дня недели, времени суток и прочего

Имхо, все очень просто:

1) Ссылки очень хорошо работают для ЯНдекса. Если закупать их медленно и если они хорошие.

2) Если это инфо-ресурс, то должны быть огромные статьи, которые раскрывают все вопросы.

3) Если это магазин, то должно быть удобный интерфейс + на тексты уже не особо важно.

Вот и все)))

Ссылки ну нереально работают - пока.

xtras:
И те и другие хороши. Индексируемве можете сами постить. А вконтактовские пусть посетители пишут. Хоть и не индексируются, зато заставляют прсетителей задержаться на пару лишних секунд, чтобы почитать, что народ пишет :)

Я не уверен, что какие-либо сигналы, комментарии и прочая дребедень из социальных каналов оказывает хоть ккое-либо влияние на выдачу.

Мне кажетсся, то данные каналы влияния на поисковики являеютя слишком явными и следовательно они уже давно "списываются на нет" в рамках алгоритмов обоих поисковиков.

Вы можете показаться какие-нибудь подтверждающие данные, что они работают? Ведь вы можете ппоказать отчеты по имзенению показателей + скрыть на черной полоской название вашего ресурса?

12
Всего: 20