Если не учитывать смежные запросы (сайт в топе только по одному запросу, а по другим топ 50+), то при прочих равных условиях, "!купить !розовых !кроликов" даст больше трафика.
Для того чтобы исключить страницы, необходимо в header прописать 404 код ответа, а потом удалять их в вебмастере.
Купите ссылок с Питерских тематических сайтов, также можно купить ссылки с новостных порталов (тоже питерских)
Зависит от ссылочной массы 10 сайтов. Если она небольшая, то совпадение ссылок на 10 проектах будет выглядеть неестественно.
Вопрос как лучше? На мой взгляд лучше продавать ссылки в Сапе с 50 сайтов, а на заработанные средства покупать ссылки для 10.
Речь идет о коеффициенте затухания Pr, он 0,85. Так что проценты правильные))
Не рекомендуется делать более 50 внутренних ссылок на странице. Иначе каждая ссылка будет передавать незначительное количество веса.
Вы можете проверить корректность robots.txt сами вот тут - http://webmaster.yandex.ru/robots.xml
в верхней строке вводите url главной, во второе поле robots.txt вставляете инструкции для ПС, и в третьей строке подставляете те урлы которые должны индексироваться.
Узнаете наверняка, будут индексироваться ваши страницы или нет.
Да, возможны. Тот же by.ru банили за доры размещенные на поддоменах. Так что если есть возможность не размещать порно-сайт на поддомене, не размещайте.
А почему вы решили что домен под фильтром? Такая разница в индексе ПС может быть связана с генерацией дублей, из-за ошибок предыдущего владельца.
Если языки будут разными, то и материал будет разным в глаза ПС. Поэтому, можно сделать английскую версию на субдомене.
Зависит от природы возникновения дублей. Например версии для печати лучше закрыть через robots.txt
Что касается rel='canonical', то его можно использовать, когда дубли генерирует скажем фильтр товаров.
Нередко, при попытке упорядочить товары по возрастанию или убыванию цены добавляется доп. параметр в url и эти url-ы попадают в индекс.