Для нового сайта сразу лучше покупать только хорошие ссылки, с большим ПР, без явного спама одно-двухсловными анкорами. Выждать месяц - а потом понеслась :)))
В этом случае не будет никакой песочницы (а ее и так уже нет), и сайт будет подыматься вверх. Ну, это при условии, что контент нормальный.
Для неновых сайтов - много факторов, но они получаются сугубо индивидуальными. Точных цифр нико не скажет.
Запросы геозависимые? С названиями украинских городов? Вам, по-идеи, тогда надо наоборот хостится в Украине :) + побольше украинских ссылок.
В любом случае не стоит подымать бучу, покупать VPNы или писать дисертацию о фильтрах гугла, когда сайт на 2-й странице выдачи. ЭТО КОНКУРЕНЦИЯ.
Проще купить в сапе несколько ссылок с ПР5 (если позволяет религия) и подождать недельку результата.
Попробуйте "Tools and Analysis" -> "Ad Preview and Diagnosis" в Google Adwords.
PS. Возможно, что в американской выдаче позиции ниже потому, что сайтов, с четко указанным регионом "United States" в Google Webmasters, теоретически становится больше. Конкуренция больше за US пользователя, таким сайтам дается дополнительное преимущество.
В украинской выдаче, этим сайтам не дается преимущество - их меньше борется за ТОП.
1. Уберите в Review-aggregate "photo = ..." - тут картинка работать не будет.
2. Длинное: "itemreviewed = ..." - сделайте из 2 слов.
3. Если используется "count = ...", то на странице должны быть отзывы, размеченные с помощью Review. Вместо count пропишите votes.
Это предупреждение есть в их примере.
"Warning: If count is specified in review aggregate, page should contain reviews. Otherwise you may want to use votes."
Я ж и говорю, главное - перешел ли пользователь на сайт и нашел ли ответ, а не то, сколько времени он на нем провел.
По-моему, многие ключевые показатели ПФ надуманы оптимизаторами и не имеют ничего общего с реальностью.
Если представить, что нет всяких шпионских штучек, типа яндекс бара или метрики, и откинуть эту параною с поведением пользователя на сайте, то остается совсем немного факторов:
- переход с выдачи;
- вернулся ли человек обратно в выдачу по тем же запросам;
- оценка ассесоров.
Тоесть, для большинства сайтов все ограничивается красивым сниппетом и его CTR, а также, нашел ли пользователь ответ на сайте.
То, что Яндекс вставляет сниппет из каталога вопреки желанию вебмастера - это плохо. Любой web-сервис должен развиваться исходя из пожеланий пользователей, а не вопреки :)
Картинки для авторов работают пока только для &hl=en
Генератор дорвеев понятнее пишет тексты 😂
Если выкинуть из головы всякие глупости, термины, обозначающие псевдо-алгоритмы, то останется только здравый смысл. А по нему станет понятно, как работает алгоритм google.
ps. Также, заПФность стоит выдерживать на уровне 0.15, чтобы не попасть под фильтр.
SPAN - это inline (строчный) елемент, как и тэг <a>. Ему нельзя задавать ширину и прочее. А блочные элементы всегда начинаются с новой строки, их можно сделать строчными в CSS, но не наоборот.
http://htmlbook.ru/samlayout/blochnaya-verstka/strochnye-elementy
можно:
- те же самые действия, что и для обычных сайтов в Google Webmaster Tools;
- закрыть в robots.txt (файл разместить по анонимному доступу в корень);
- конкретно для google еще можно запретить индексацию сайта (не только FTP, а и .txt файлов ) с помощью заголовков сервера HTTP X-Robots-tag.