6ecuk

6ecuk
Рейтинг
24
Регистрация
30.03.2011

Вариант первый: Нарасти +50% от текущей ссылочной массы и подержи месяц, чтобы настоялась. После можно в два три этапа снимать ссылочную другого оптимизатора.

Вариант второй: В первый месяц текущий бюджет оптимизатора (500$) уменьшаешь до 300$, а сам тем временем на своем аккаунте начинаешь закупку на 200$. Во месяц полностью обнуляешь бюджет конкурента и продолжаешь наращивать ссылочную на сайт.

Ну для начала нужно добавить с десяток страниц с контентом.

P.s и не помешает склеить http://www.sfera.od.ua/ и http://sfera.od.ua/

P.s.s и не помешает прописать robots.txt

Хоть сильно и не повлияет на результаты, но хоть будет видно что "какая-то" оптимизация проводилась ;)

У меня вон robots.txt попал в индекс... :) Гоша, такой Гоша...

Так вот как они реализовывают персональный поиск :)

Зная Гошу, могу сказать что "Disallow: /index.php*" будет мало. Нужно через webmaster подавать на удаление страницы, вот только 1 лям страниц закидывать на удаление по одной ссылке не очень весело :)

site:bazazakonov.ru/doc/index.php

Думаю из-за этого весь сыр-бор.

Было бы очень хорошо, если бы Вы сделали версию под Linux.

Сам гугль говорит об этом. но страница в индексе ив выдаче как я и говорил уже 2-ой год

Все правильно, если мы закрывает в robots.txt страницу - то Googlebot перестает на нее приходить, но в отличии от Яндекса, он автоматически не выкидывает страницу из индекса, как делает это Яндекс. Убрать ненужную страницу из индекса гугла можно двумя способами:

1. Через панель вебмастера подать ссылку на удаление.

2. В странице прописать мета-тег noarchive.

Ice_sCream:
ТС, кто Вы и почему Вы уже кого-то пытаетесь учить в Одессе?

Само пиар в первую очередь :) Однако, если подумать, то базовые курсы в Одессе по поисковой оптимизации в дальнейшем дадут рост специалистам в Одессе :) IMHO.

1 23
Всего: 29