- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
С самого начала продвижения сайта старался использовать ключи по тематике сайта и тому что на нем. Ну кроме этого в keywords указал еще несколько дополнительных ключей которые не использовал в регистрациях всяких и так далее. Но в итоге получилось так, что сайт попал в топы выдачи именно по тем запросам, ключи которых были в keywords. А нужные мне запросы в пролете до сих пор.
Как можно исправить ситуацию?
Или просто сидеть и ждать пока ситуация сама изменится?
Просто не хочу потерять впустую время.
Breds добавил 24.02.2009 в 14:30
На данный момент решил убрать и исключил из keywords те ключи что вырвались вперед. Потому как их собирался использовать всего лишь дополнительными.
видимо, просто по этим ключам, которые попали в топ, маленькая конкуренция, и откидывать их вовсе не стоит, все таки тоже трафик. Все нужно оставить как есть и продолжать работу по тем ключам, которые не вылезли: добавлять контент, лучше оптимизировать, наращивать ссылочную массу и т.д.
Да с этих вылезших запросов, то как раз трафика и нету совсем. 2-3 из них вообще региональные. Да вот наполняю сайт ежедневно. Ну а с ключами что делать? Вернуть их обратно в keywords что ли?
Ну а с ключами что делать? Вернуть их обратно в keywords что ли?
Можно их не возвращать в keywords (не участвует в ранжировании сайта), они попали у Вас в топ не из-за этого. Действуйте, как сказал panic, наращивайте качественную ссылочную массу по нужным ключевым словам + проведите полную оптимизацию участвующих в продвижении страниц.
Спасибо за советы! Постараюсь так и поступать! Буду надеятся, что всё получится.
Breds добавил 24.02.2009 в 15:15
И еще, пока не забыл, имеет ли смысл создание файла robots.txt если запрещенных для индексации мест на сайте нету. Или лучше его создать?
И еще, пока не забыл, имеет ли смысл создание файла robots.txt если запрещенных для индексации мест на сайте нету. Или лучше его создать?
Создайте файл такого вида:
User-agent: Yandex
Disallow:
Host: www.Ваш_сайт.ru
User-agent: *
Disallow:
Хотя его отсутствие допустимо.
имеет ли смысл создание файла robots.txt если запрещенных для индексации мест на сайте нету. Или лучше его создать?
Да, лучше создать такой, как вам написали. Не критично, конечно, но по крайней мере логи ошибок забиваться не будут, когда ПС будут запрашивать файл.
Прямо эти 5 строк и написать в файле?
User-agent: Yandex
Disallow:
Host: site.ru
User-agent: *
Disallow:
///это и будет весь файл?
Breds добавил 24.02.2009 в 15:30
Ну вот по поводу логов, вы, наверно правы, давно заметил что там название этого файла часто встречается.
Прямо эти 5 строк и написать в файле?
User-agent: Yandex
Disallow:
Host: site.ru
User-agent: *
Disallow:
///это и будет весь файл?
Да, только пустую строку обязательно оставьте между этими записями. Вот так:
Disallow:
Host: site.ru
User-agent: *
Disallow:
Хорошо, спасибо! Пойду попробую создать.