Если смотреть на структуру сайта в панели для Вебмастеров Яндекс - ПС лучше видет разделы сайта и кластеризирует страницы при наличии папочной структуры вида:
/ukraine/kiev/opera-hotel.html
-ukraine
--kiev
---opera-hotel.html
---11-mirrors.html
и т.д.
Папочная структура помогает Яндексу лучше понимать структуру сайта, ИМХО.
Лучше сделать именно так. В этом случае Вам не нужно будет качать отдельные домены или поддомены ссылками. Также советую ознакомиться:
https://support.google.com/webmasters/answer/182192?hl=ru&ref_topic=2370587
https://support.google.com/webmasters/answer/189077?hl=ru&ref_topic=2370587
https://support.google.com/webmasters/answer/2620865?hl=ru&ref_topic=2370587
Тут делайте как Вам больше нравится. Русскоязычные УРЛы - это не проблема, имхо. Думаю скоро все адекватные браузеры будут их норм отрабатывать, главное научится на них правильно безанкор закупать :)---------- Добавлено 12.11.2014 в 11:02 ----------
Согласен. Если сервис будет продвигаться в разных странах - в песпективе эффективнее будет на разных доменах или поддоменах, но финансов на продвижение уйдет больше. По-факту это будет 3 разных сайта.
Если говорить о регионах одной страны - то лучше таки сделать 1 домен, имхо.
Прочтите данные руководства и сделайте с использованием подкаталога /ua/. Почему так? Думаю после прочтения информации по вышеуказанным ссылкам будет понятно.
Инфа из личного опыта? Заспамленные доноры нормально работают? :)
Под общим профилем ссылочного Вы имеете ввиду показатели, аналогичны соотношению TF & CF от Majestic?
И тут вопрос. Разбавка анкор-листа важна в общем на домен или на каждый документ/страницу по-отдельности? Просто иногда смотришь - в общем на домен вроде как разбавка естественная, все ок. Но стоит взглянуть на внутренние, которые при этом занимают хорошие позиции - исключительно анкор, да еще и практически весь в прямом соответствии. Естественностью ну вообще не пахнет :)
Мы в свое время тоже боролись с этим. Тут проблема не в количестве прокси/айпи и т.д., а в правильности парсинга. Нужно писать ПО так, чтобы гугл считал этого клиента реальным человеком, который юзает браузер, а не какие-то wget-ы и подобные консольные браузеры для парсинга.
Использование Selenium-а вашим ПО + подключение АнтиГейта - путь к успеху. Так можно парсить тысячи ключей с 1 айпи без никаких прокси.
Парсить гугл нужно в любом случае "через браузер" (анонимную вкладку), даже если это делается программно.
Если у Вас нет потребности в промышленных маштабах - обратите внимание на Serp Parser Lite, который программно использует IE - http://serpparser.ru/.
p.s. Использование прокси при кривой парсилке - приводит к бану всех этих проки, сколько бы их небыло.
При корректном парсинге картина выглядет так: парсим - капча - парсим дальше. И никаких 500-х ошибок.
Думаю НАМНОГО больше, если взять все регионы.
trovit.com
Международный монстр, который собирает такое количество НЧ и СЧ, что все другие курят в сторонке :)
Почему Вы так решили? :) Вы хотите сказать, что органика и агрегатор - это понятия несовместимые? :)
Купите внешний айпи))) Простите, не удержался)))
У меня было соотношение 2:1 в пользу гугла. Сейчас наоборот - 2:1 в пользу Яндекса. :(
Тут дело не в ПФ, начались качели какие-то снова.
Мой топик почему-то удалили, но с вылетом позиций вчерашним не мы одни... Похоже на какие-то приколы Панды.