wildbeez

wildbeez
Рейтинг
68
Регистрация
13.06.2012
Интересы
free-lance

тут http://advego.ru/1b9HmgyTXR по 5 центов за репост, но зато живыми людьми и можно таргетинг указать и прочие условия

germanarih:


Всем заранее благодарен!

при выборе запроса (ключа) нужно проверить его на пустышку, учитывать конкуренцию, анализировать сайты в топ, чтобы понять как продвигать, сколько нужно еще текстов по теме, сколько ссылок

зы. если соберетесь что-либо покупать, лучше мне напишите, научу в 2 раза дешевле:)

zaxavar:
Здравствуйте.
Правда ли, что поисковки учитывают только одну ссылку с сайта?

имхо, лучший вариант: один донор - одна ссылка

между тем, несколько ссылок с сайта дадут рост позиций, но тицок не добавят

то есть ели нужны тицки, то 1 донор - 1 ссылка, если позиции -то можно и несколько

добрый!

если Вы желаете увеличить количество просмотренных страниц, снизить процент отказов, а значит увеличить продажи, то я могу помочь.

проблема в том, что сначала надо было продумать какие страницы будут точками входа, и какие - точками выхода (это грубо говоря), а затем уж создавать сайт.

но все можно исправить

пишите мне в ЛС или аську - пообщаемся о Вашем проекте конструктивно

прибыль или доход?

прибыль через полгода для саттелита и около года для СДЛ

доход можно и на следующий день получить

это ЛП, LP, посодочные, продажники

на них льют трафик разными способами, наверное кто то продвгает

не факт что она для продажи, может быть и для перенаправления трафика, тогда будет ранжироваться невысоко

переиндексация может быть долгой, особенно в яндекс

если есть желание ускорить, поприглашайте роботов на сайт всеми способами, удалите в вебмастере не нужные урл

однако не факт что ускорите, все зависит от того, какой сайт изначально (ГС или хороший)

iga88:
Ведь если я пропишу Disallow: /images/, то тогда и /images/stories/ не будет индексироваться. Как быть?

по-моему Вам надо начать с изучения теории http://help.yandex.ru/webmaster/controlling-robot/robots-txt.xml#allow-disallow

сделал такой вывод, прочитав первый пост:)

borisd:
простом решении.

джумлу юзает ТС

:)

благодарю

borisd:
Я бы просто прописал на пагинированных страницах (кроме первой) метатег "noindex, follow". Это скажет роботам не помещать эту страницу в индекс, но проходить по ссылкам на ней.

комильфо:)

а можете хоть примерно начертать как это буит реализовано? проверку нужно делать на несуществующие страницы пагинации?

Всего: 329