- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
antono, всё правильно прописано, не сбивайте человека с понтолыку
вот темку почитайте:
/ru/forum/21783
я не утверждаю что первый вариант неправильный, но так как являюсь тоже сторонником "без www" делаю сайты без оного. Яндекс как-то проиндексил с ввв, я прописал в robots.txt с disallow, и через месяц все ввв удалились. Не хотелось на эксперименты тратить время=деньги
antono, так почитали темку, там никто так и не пришел к конценсусу )
http://www.yandex.ru/cgi-bin/test-robots?host=promlinemash.ru
видите стоит Disallow: /installation/ перед Host:, так зачем ставить пустой Disallow: ??? бред.
так зачем ставить пустой Disallow: ??? бред.
A Standard for Robot Exclusion:
The value of this field specifies a partial URL that is not to be visited. This can be a full path, or a partial path; any URL that starts with this value will not be retrieved. For example, Disallow: /help disallows both /help.html and /help/index.html, whereas Disallow: /help/ would disallow /help/index.html but allow /help.html.
Any empty value, indicates that all URLs can be retrieved. At least one Disallow field needs to be present in a record.
Андрей, может все-таки лучше следовать стандартам?
С уважением,
Сергей Пасечник.
Cергей, покажи пожалуйста где не по стандартам прописан роботс, я не вижу тут проблем.
Вопрос снят.
Я не сходил по ссылке, которую привел Veles, а основывался только на сообщении от antono.
Имелось ввиду - если нет ни одной директивы Disallow - то роботс написан не по стандарту.
Ссылки на сайт ставились из расчета, что главной будет страница http://promlinemash.ru для профилактики в robots.txt ( http://promlinemash.ru/robots.txt ) написал для яндекса:
User-Agent: Yandex
Host: promlinemash.ru
несколько месяцев все работало правильно, а вот недавно яндекс стал считать главной - www.promlinemash.ru. Естественно главная из-за этого опустилась в выдаче. Что делать не знаю. Посоветуйте в чем может быть причина?
проблема в точности как у вас..уже прошло 3 или 4 апдейта, как я так же прописал в роботсе..больше 4 месяцев..ничего не меняется..Я считает главным домен с www..
если кому интересно смотрите
http://bigli.ru/robots.txt
решение так и не нашёл..
С Уважением
Uacommerce
напишите в суппорт. несмотря на их уверения, что зеркальщик ходит сам и никого не слушается, пару раз мне этого помогало, правда это с годик назад было...
я не утверждаю что первый вариант неправильный, но так как являюсь тоже сторонником "без www" делаю сайты без оного.
Работать надо на людей, а не на свои пристрастия. По моим наблюдениям все менеджеры компании набирают с www, я думаю, что большинство пользователей не знакомых с высокими фундаментальными стенами и тонкими энергиями SEO набирают так же. Я тоже набираю без www, но сайты делаю именно под www.
при чем здесь "набираю", "ненабираю", проблемма с ввв касается только путаницы с индексацией поисковыми системами, а так набирай как хочешь - сайт работает в обоих вариантах.