v1p3rrrrr

Рейтинг
54
Регистрация
08.09.2015

В 2008 году конкуренция была несравнима с нынешней. Сейчас лучшим вариантом будет мутаген/кейколлектор, но они требуют некоторых вложений. Можно поискать в яндекс вордстате низкочастотные запросы, на уровне 300-2000 в месяц, отобрать наиболее интересные для себя и закинуть в мутаген, выйдет не слишком дорого. Также есть вариант искать в самом поисковике точные вхождения через "!запрос", чтобы примерно оценить конкуренцию но я бы не стал на такое ориентироваться, обладая слабым сайтом.

Katyyy:
Эти несколько малоконкурентных запросов-хвостов в подразделе статьи можно использовать или брать один запрос типа "present perfect continuous правила и примеры" на всю статью?

Если у тех хвостов частотность на уровне 50, то логично их вписать в основную статью. Учитывая тематику, можно все статьи делать примерно по одному шаблону, разбивая их подзаголовками. Добавлять ещё оглавление в начале и будут удобные статьи :)

1 вариант логичнее выглядит. Если у цмс есть свои ограничения, то лучше делать по 2, чтобы в будущем не было проблем.

Здравствуйте, можете подсказать статус сайта? Добавлялся давно, не помню точно раздел.

А если чуть иначе поставить вопрос. Конкуренты присутствуют в региональных каталогах фирм и т.д. Проблема в том, что эти каталоги бесплатны и заспамлены ссылками выше крыши, на одном даже агс. Я же правильно считаю, что добавление туда лишь навредить может?

gentlemanchik:
Так никто и не сказал что именно эти ссылки продвинули сайт. Если на сайт роскомнадзора сослаться с торрента сайт роскомнадзора не от этого получить 1 место по запросу "роскомнадзор" (я утрирую но суть я думаю ясна)
Лучше качественные ссылки без региона (но как понять качество ссылки уже другой вопрос) если региональные мусор.

Разумеется, есть и несколько нормальных там, но большинство - такой мусор. Видимо, заказывали прогон по каталогам у непонятно кого. Делать такое я однозначно не буду, поэтому и решил спросить совет насчёт региона.

xVOVAx:
Если сомневаетесь - лучше не делайте

А что, надо заказать у кого-то на стороне, чтобы потом обнаружить такой же мусор как в моём примере?

j3tson:
Плохой региональный донор, хуже чем качественный нерегиональный

Есть очень качественные региональные, например, городской портал, но он просит 4000+ за ссылку, есть просто хорошие не региональные с ценой 400-700, есть всяческая помойка из региона с околонулевой посещаемостью, вот и думаю, что лучше.

xVOVAx:
Если ваши конкуренты продвинулись определенными ссылками то советую продвигаться такими же

В том-то и дело, что большинство ссылок у конкурентов с нетематических сайтов или откровенных помоев за исключением нескольких штук. Я очень сомневаюсь, что стоит брать пример с таких доноров:

http://www.publications.reporter-studio.ru/catalog_articles/

http://base.webses.info/

http://musicmixdaily.com/forum/

http://vladagler.ru/

http://katlog.ru/

http://www.bva.ru/

Это же жесть какая-то.

А если качественных региональных доноров мало, а конкуренты довольствуются заспамленными, неужели плохой региональный лучше чем качественный нерегиональный?

Второй вариант ничего не находит, впрочем, мне отлично подходит первый. Спасибо ещё раз.

jkm:
Ну раз \b не работает с кириллицей в UTF-8, то можно попробовать через cвойства unicode-символов.

Спасибо, работает. Ещё один вопрос тогда. Возможно ли этими свойствами исключить слова, обёрнутые в теги, например, <h2>?

Посмотрел, что > и < относятся к математическим символам, добавил в код p{Sm}, но не работает правильно.

$text = preg_replace('/(?<!\p{L}\p{Sm})'.preg_quote($value['faq_menu'], '/').'(?!\p{L}\p{Sm})/ui', '<a href="/faq/'.$value['faq_url'].'/">'.$value['faq_menu'].'</a>', $text);

В принципе, можно убрать i, тогда не будут искать слова с заглавной буквы как в h2, я пока так и с делал, но хотелось бы без таких исключений, нужное слово может ведь быть и в начале предложения.

Вырезает из слов по-прежнему.

<?php
header("Content-Type: text/html; charset=utf-8");
$text = 'лалаланужное_словолалала нужное_слово лалала';
$replace = 'нужное_слово';
$replace = str_ireplace('[\'/\', \'#\', \'$\', \'^\', \'.\']', '[\'\/\', \'\#\', \'\$\', \'\^\', \'\.\']', $replace);
$url = 'anyurl.html';
$text = preg_replace('/'.$replace.'/ui', '<a href="'.$url.'">'.$replace.'</a>', $text);
echo $text;

На выходе оба становятся ссылками. Думаю, без \b тут не разобраться. Пока что чуть изменил тексты, в которых происходила ненужная замена, но это такой себе костыль.

Всего: 202