Dazemc

Рейтинг
68
Регистрация
18.11.2013
Serega2711:


Может кому будет интересно. Формат Layer на сайте весит уже месяца три. Сайт развлекательной тематики 7-9к уников в сутки. 70-80% Россия. С поисковиками непонятно, трафик не падает, но и не растет. Хотя раньше перед Новым годом всегда повышался до 12-15к, но не буду утверждать что это связано с партнеркой. В целом нормальная партнерская сеть, жаль что только мало рекламодателей в других форматах, ставил баннер и слайдер, а результата - 0. Только кликандер и Лаер нормально.

Так за кликандер ПС уже же давно банят. На счет Лаера не знаю, но кликандер это большой риск для сайта.

Это чем ты монетизируешь так? Кликандером и мобильной CPA. просто если да, то наврятли у тебя долго траф так продержится.

Потратьте деньги на обучение лучше. Самое лучшее вложение это вложение в УМ.

На одном проекте вырос +10. Остальные 4 проекта уже несколько месяцев без изменений.

ТС что там с новыми СЯ готовыми?

simplymad:
Тут главное, когда берешься за SEO-описание не забыть о главном человеке, для которого это делается. А то встречаются магазины с уникальным описанием на 1500-2500 знаков, но от того желания купить не возникает совершенно.

Дело не только в описании, а в самом контенте же, если у вас не продает описание, очень хорошо могут продавать отзывы - т.к. они вызывают доверие + они могут хорошо индексироваться и нести трафик, если они не закрыты от индексации.

Мне кажется это только слухи..

sanandreas:
от 20 до 40 статей.

Надо семантику разбирать, какие у тебя там запросы. Но по сути не все так плохо если 20 статей получают 100 уников, особенно если статьи не большие до 2000 знаков.

xaxel3000:
Обнаружил у себя в robots.txt вот такую надпись, с которой раньше не сталкивался (выделено жирным) -
User-agent: *
Crawl-delay: 10
# Directories
Disallow: /info/includes/
Disallow: /info/misc/
Disallow: /info/modules/

Гугл че то ругается на нее - http://joxi.ru/82Q5xLNH1jZnj2 . Возможно поставил один их ранее нанятых вебмастеров.

Вопрос: Зачем нужна эта надпись и нужна ли вообще?

Директива Crawl-delay

Если сервер сильно нагружен и не успевает отрабатывать запросы на загрузку, воспользуйтесь директивой Crawl-delay. Она позволяет задать поисковому роботу минимальный период времени (в секундах) между окончанием загрузки одной страницы и началом загрузки следующей.

В целях совместимости с роботами, которые не полностью следуют стандарту при обработке robots.txt, директиву Crawl-delay необходимо добавить в группу, которая начинается с записи User-Agent, непосредственно после директив Disallow и Allow).

Поисковый робот Яндекса поддерживает дробные значения Crawl-Delay, например, 0.5. Это не гарантирует, что поисковый робот будет заходить на ваш сайт каждые полсекунды, но позволяет ускорить обход сайта.

inWebs:
3 - 4 тысячи это все равно мало (на мой взгляд), нужно тысяч 10 и более статей, тогда трафик по НЧ сам, естественным образом попрет. Вообще, на старте не стоял вопрос агрессивного СЕО (как говорят эксперты на пол-года, год для новых сайтов забудь про СЕО) - это конечно спорное мнение, но в основном верное...
По сайтам работа велась над контентом, естественным развитием и технической доработкой и немного естественное продвижение - на сайты ссылаются только соц-сети и форумы.
Сайты сейчас хорошо "отлежались", имеют определенный траст и социальные факторы, тут самое время и активным продвижением будет заняться.. но этим вопросом уже новый владелец займется.. )

Мало? у меня сайт на 70 статьях имеет 1500 уников в сутки, я знаю ребят которые при меньшем количестве 30-50 статей имеют более 2000-2500 уников в сутки, без единой ссылки! А ты предлагаешь купить у тебя сайт за 400 баксов + вложиться в 6000 статей еще чтоб увеличить трафик, давай возьмем среднюю цену допустим 100 рублей за текст, это 600.000 рублей! Тогда только пойдет нормальный seo-трафик. У меня есть предложение лучше уволь своих сеошников, собери СЯ и оптимизируй нормально контент, и при 4000 статей у тебя будет во много раз больше трафика, и продавай тогда.

P.S.

Удачи с продажей

Всего: 444