imd

imd
Рейтинг
102
Регистрация
23.05.2009

Ну все как обычно:

1. Создайте семантическое ядро!

2. Если уже есть, пишите тексты и разместите на страницах, которые хотите продвигать,

3. Пишите смысловые и понятные тайтлы

4. Сделайте контекстную перелинковку

5. Купите ссылок на те страницы, над которыми работали в пунктах 3 и 4

и ждите) Есть конкретный вопрос, можете спросить в ЛС

---------- Добавлено 24.02.2012 в 16:12 ----------

Если вы не знаете по каким запросам продвигать, задайте себе вопрос, какие проблемы отдыхающих может решить ваш сайт и от этого можно построить хорошее семядро..

у меня было раз так, с поиска резко трафик упал на 99%.. был только с картинок.. это была панда

kimberlit:
Где? 10 где.

опечатка, в урле есть ?&cal_offset

та вообще уже какая разница? Гугл понимает что эти страницы запрещены, вопрос в другом, когда он их удалит?

Диагностика > Ошибки сканирования такая штука

впервые джумла наплодила столько страниц.. яндекс проиндексировал все как нужно

---------- Добавлено 23.02.2012 в 18:24 ----------

Serjo_201:
Я стараюсь не пользоваться роботсом, прописываю в сайте, если в урл есть чето там, то параметр
robots=noindex,nofollow.
Из плюсов-такие страницы не попадают в сопли и удаляются вообще.

как бы это в джумле сделать

---------- Добавлено 23.02.2012 в 18:25 ----------

kimberlit:
& - зачем? :D

потому что он в урле есть

Privod:
А чего ссылки не сделать человеческие?

а с чего вы взяли что ссылки не человеческие? Вы сайт видели? То что на картинки это только пример

---------- Добавлено 23.02.2012 в 18:19 ----------

kimberlit:
Покажи весь robots.txt.

User-agent: *

Disallow: /administrator/

Disallow: /cache/

Disallow: /components/

Disallow: /images/

Disallow: /includes/

Disallow: /installation/

Disallow: /language/

Disallow: /libraries/

Disallow: /media/

Disallow: /modules/

Disallow: /plugins/

Disallow: /templates/

Disallow: /tmp/

Disallow: /xmlrpc/

Disallow: /*?&cal_offset

Sower:
Зайдите в "Конфигурация сайта" > "Доступ для сканера", отредактируйте пробный robots.txt, укажите страницу и проверьте, будет ли она доступна ботам.

Даже если страницы перестанут индексироваться, они продолжат находится в индексе до тех пор, пока бот не зайдёт обновить их содержимое. Изменённый robots.txt не срабатывает автоматически на весь индекс сайта.

Пишет что разрешено

Sower:
кажись так
Disallow: *?cal_offset=*

я же в первом посте написал что так и сделал.. * вконце не нужна

теперь WMT выдает сообщение

и еще тут указал, что урлы с таким параметром не индексировались

Но они до сих пор в индексе

Если я так укажу, удалить domen/o-kompanii?cal_offset=3 он не удалит domen/o-kompanii ???

а где у вас вообще главная? в меню "Главная" ведет >> /content/razrabotka-sozdanie-i-prodvizhenie-saitov-v-vinnitse . Перед тем как запускать сайт, нужно было от индекса спрятать, протестировать его, оптимизировать и потом только открывать для индексации. Конечно гугл будет его криво индексировать, если косяки начинаются с самого первого пункта меню=)

мы лечили сайт самостоятельно, скачали сайт на комп, нашли все зараженые файлы, изменили их, залили обратно.... поменяли пароль от хостинг панели и на фтп.. на след день вирус опять был на сайте.... тут наверное есть дырка в каком то модуле или компоненте.. вот так... короче не получилось его вылечить, сказали клиенту, чтоб менял cms

Всего: 524