vip-moto

Рейтинг
192
Регистрация
23.09.2009

ну я думаю возьму edu и вики. А через 1-2 месяца возьму постинг статей в блоге опять по бренду (500 штук все описания к анкорам разные) ну и постинг по 10-20 в неделю. Что скажете по этому поводу?

---------- Добавлено 09.08.2013 в 19:19 ----------

ну и для эксперемента есть у меня 1 агс, трафик только с гугла (300 в день). Пущу на него прогон по базе форумов, глянем че с ним будет

http://xrumergeek.com/ вот собственно сам ресурс.

http://vk.com/xrumerelite - тоже нашел, можно глянуть беклинки группы, стоит в гугле по многим вч в топе. Что кто скажет где лучше. У этой группы не понравилось что постят русский текст на бурж форумах.

Америкосы сказали что у них есть база русских форумов и профилей, для них анкоры на русском составлять. Для вики и edu на английском.

Вопрос по поводу фильтра если все ссылки с адресом мой сайт.ру есть шанс так же хватануть фильтр? Просто можно услугу по отдельности заказывать. Допустим вначале вики, потом edu, потом профили. Хрумер исключительно ради набора ноуфоловов и без анкоров. Остальное по ключам буду в миралинксе брать статьи. Просто у знакомого есть горький опыт, когда он с 1 дней начал закупку прямых вхождений, побыл в топ 20 пару недель и улетел за пределы галактики

а каким способом тогда набрать без анкорные ссылки? Просто на форуме предлагают за такую сумму 500 ссылок скрытых в шаблоне, или постинг в блогах полумертвых

seocore:
все правильно делаете, все получится, через robots.txt + Disallow:

То есть вы предлагайте закрыть /page/? И по поводу тегов. Вот пример http://o-kino.info/animations/animations_zarubezhnye-multfilmy/16415-turbo-turbo.html в ролях: перечесление тегов, вы предлагайте расставить на всех тегах ноуфолов в ссылке?

r_y_n:
скорей всего фильтр. Сам столкнулся с похожей проблемой. Выход создать новую стр.

Фильтр чисто по 1 запросу? Если сделать 301 на новый адрес траницы, не поможет?

Russian Traveller:
контент на этих страницах разный?

Да, контент везде разный, но по сути контент со списком новостей. Вот вам пример

как бы http://live-torrent.ru/page/10/ и http://live-torrent.ru/page/13/ есть сенс это индексировать? Я думаю нету, так как весь этот контент будет внутри новости. Тем более по всем запросам http://live-torrent.ru/ и эти страницы вылезут в выдаче, только если удалить главную из поиска

Den73:
настройте его под вашу нагрузку и базы, не обязательно много выделять, если у вас слабый сервер то вообще лучше вернуть дефолтный конфиг и прекратить заниматься фигней.

Да уменьшил параметры, да и хостер бесплатно накинул 500 метров оперативки. Так что вопрос уже неактуален.

Den73:
memlock

читайте внимательней что вам пишут

Ну и выгружать сразу всю зарезервированную память под mysql зачем?

DPS1985:
vip-moto, ссылка не работает, а почему не хотите просто в файле роботс.тхт закрыть всю директорию /page/?

Потому что на /page/ выводятся новости сайта, и нужно чтобы бот ходил и индексировал новости которые на этих /page/, но сами /page/ не индексировал поэтому и выставлен <meta name="robots" content="noindex,follow" />

---------- Добавлено 08.08.2013 в 18:29 ----------

Russian Traveller:
конкретнее вопрос задавайте

какой хлам? по одной ссылке нельзя понять что есть хлам

Ну вот смотрите в индексе 2000 страниц сайт.ру/page/2786/, сайт.ру/page/3786/, сайт.ру/page/1786/ и так далее. По ключу выводится 1 страница категории что то типа сайт.ру/page/1, поэтому индексировать все эти /page/3786/ не вижу смысла. Поправьте если я не прав, так как эти /page/ создают тысячу повторяющихся метатегов и тайтлов.

а как запретить свопать mysql?

Всего: 662