У меня по всем украинским проектам Яндекс занимает 2-е место по количеству трафика, уступая только Гуглу. Так что, думайте сами, решайте сами...
Хотелось бы еще добавить, что париться не зачем. По собственному наблюдению то ,что закрывалось в robots.txt и все равно находилось в индексе Гугла, никак не влияло на нормальные страницы (и даже помогало в борьбе с дублями). И со временем такие страницы могут полностью удалиться сами. Но не факт, т.к. мощности Гугла позволяют держать такие страницы в своем индексе, на всякий случай.
По поводу дублей и борьбы с ними, есть много способов, и robots.txt, кстати, не самый приоритетный. Первое, что лучше всего сделать - это 301 редирект, второе - прописать канонический линк, потом уже все остальное.
Когда вы указываете роботу поисковиков, что обращаться к данной странице не нужно, он предотвращает доступ паука к странице. По существу страница просматриваться не будет, поэтому ссылки с этой страницы не будут передавать вес (поскольку поисковый движок ссылок не видит).
Однако страница может находиться в индексе. Такое может произойти, если на данную страницу есть ссылки с других страниц (как внешние, так и внутренние). В результате такие страницы все-таки попадают в выдачу и выглядят без описаний, только URL. Примерно вот так - ссылка. Это происходит потому, что паукам не разрешается читать страницу, чтобы получить данные, но, тем не менее, эти страницы в индексе поисковика.
Более детально почитать про robots.txt можно на официальном сайте.
Команда disallow: запрещает обращение робота к странице, но не исключает ее из индекса, если она там была.
Пользуйтесь <meta name="robots"> для удадения из индекса. Еще, как вариант, команда noindex: в robots.txt, признается только Google.
Отличная новость - зачетный тайтл!
Да все нормально уже, чувак. Не парься! Следи за донорами и все будет в топе.
Нет, это то, что доктор прописал.
Вы смотрите широкий тип соответсвия, где учитываются все возможнои слофоформы и словочитания. А нужно ставить галочку на точный тип [keyword], тогда все вопросы отпадут.
Достаточно субъуктивное мнение. Мне, как пользователю, и не хочется читать тошнотные портянки, напичканные ключевиками. По-моему, выскакивающий текст - отличное решение для равновесия потребностей пользователей, которые не хотят читать, и, которые хотят.
Можно
Можно и от 0, будет экономичнее, лучше совмещать.
Лучше от 30, будет оптимальнее, 10-ку лекго накрутить для ГС, 30 - уже сложнее. Цена не сильно отличается.
Чем меньше, тем лучше. Ищите и 1, и 2, и 3, и 4 - нормально будет
Можно и 365, больше вариантов будет.
А вот это - "пять"! Но для начала поищите в строго своей тематике, а потом уже все остальное.
Здесь, скорее-всего, так и делайте. Но для общего развития - в Украине домен второго уровня получает только владелец ТМ, поэтому 3-й уровень - это тоже хорошие и надежные сайты.
Экономичнее и оптимальнее будет с точностью да наоборот.
Зачем? Поставьте полуавтомат и смотрите всех доноров.
Это тоже "пять".
Можете еще региональных доноров поискать.
Экспериментируйте, для Гугла - больше точных, для Яндекса - больше разбавленных, нужно найти золотую середину. Удачи!