А почему бы на странице анализа сайта не поменять ТИЦ на ИКС? 🍿
Цифирка сейчас всё равно иксовая на иконке отдаётся.
Возможно многим будет полезен небольшой скрипт-закладка для браузера, чтобы смотреть икс прямо в выдаче http://xstroy.com/iksomer/
Основной прикол в том, что Google любит региональность в теле основного сайта, а Яндекс - на поддоменах.
Если основной траф с Яши, то поддомены лучше, о чём, кстати, Яндекс написал в советах webmaster.yandex.ru
Но... adel92 правильно сказал "Если есть позиции и трафик - то лучше не трогать".
Из своего опыта ещё могу сказать, что работает и простое упоминание адресов на страницах. У меня есть одностраничники с выпадающими списками адресов в городах и поиск активно учитывает их, что видно по анкорам и сниппетам.
Для Яши на поддоменах срабатывает генерёнка с упоминанием данного региона в заголовках и по тексту, даже с полностью одинаковым контентом. Кроме того, в Яше можно заморочитьс и добавить все поддомены в вебмастер у указать для каждого свой регион, хотя работает и так.
Гугл воспринимает такие поддомены очень неохотно. Где-то встречал упоминание о том что незначительные правки текста Гоша не считает достаточными для зачёта по уникальности контента.
Однако Гугл очень любит словоформы, т.е. у себя я все регионы и ключи склонял.
Вот сервис https://ws3.morpher.ru/russian/declension?s=Ростовская%20область (Морфер), который корректно отдает падежи по городам. Там есть варианты Апи, а при регистрации будет ещё выводиться блок падежей с предлогами.
Деньги тоже только что поступили.
Та же самая песня при выводе на моментум Visa сбербанка...
Параметр не соответствует формату
Сумма была больше 15000, как писали выше в топиках...
Пробовал ровно 15 (+комиссия) - то же самое.
Попробовал 10000. Сначала не пропустило, но со второго раза прошло.
Поделил сумму так, чтобы было не меньше 5000 и комиссия в 2% не превышала минимум в 100руб.
Посмотрите выдачу Google по регионам с более точной привязкой к запросу. 🍿
Запрос брался как-раз из старого обсуждения инструментов AdWords и даёт чёткую выдачу в конкретном городе.
Смотрите при пагинации в выдаче настройки города сразу сбиваются, поэтому 100 позиций в помощь.
Сам себе недавно искал...
Вот этот интересный Content links
Лохматит всю базу по рубрикам на предмет слов без повторений, а потом ключи делает с разбавлениями (хватая соседние слова).
Ставить нужно аккуратно. Пачку слов убирать в окошке и оставлять только нужные. Себе ложил сервер, когда всю пачку пустил на простановку анкоров.
+ ещё в том, что после удаления плагина правки не остаются
Вот наши платно делают http://mfc.guru/threads/wp-mfc-linkator-ruchnoj-perelinkovschik-dlja-wp.662/ под статейники, но сам не юзал.
Впервые встречаю такой любопытный метод защиты 🍿
А слэш для чего? Чтобы регулярки спотыкались?
Как-то и у меня слили сайт целиком. Отписывался в Яшу. Только после этого товарища приопустили в выдаче. А Гуглу откровенно пофиг на дубли... И первым будет тот, у кого траста больше.
Вот-вот, одних рук дело...
Всё из упоминаемого мусора раннее уже побывало на сайтах клиентов.
У меня сегодня только этот неотстающий появился.
До этого был _googlsucks.com_, а до него _addons.mozilla.org_
По несколько нулевых заходов в день.
Рефспам в действии, но раньше он был ориентирован только на трафик со статистик, а теперь ещё и на поведенческие может повлиять.
Аналогично :)
Хоть кто-нить поговорил с гражданкой Alexander Eropkin.
В скайпе женская аватарка :)