- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Как снизить ДРР до 4,38% и повысить продажи с помощью VK Рекламы
Для интернет-магазина инженерных систем
Мария Лосева

VK приобрела 70% в структуре компании-разработчика red_mad_robot
Которая участвовала в создании RuStore
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Перенесите их все в одну папку и запретите ее индексацию
в одну папку перенести нет возможности...устройство CMS я так понял под это не заточено....*слова верстальщика
я так понимаю придётся прописывать в роботсе каждую страницу с сылками на эти доки либо ставить все эти ссылки на доки в noindex...так ?
либо ставить все эти ссылки на доки в noindex...так ?
Если документ уже проиндексирован, то он не перестанет находиться в поиске лишь из за того, что вы на него убрали ссылку.
Сам не делал, но вроде можно через .htaccess запретить индексацию (доступ к файлам) поисковыми системами, отдавая им 404 ошибку при запросе файла.
устройство CMS я так понял под это не заточено
убить такую CMS
Объясните пожалуйста следующую ситуацию.
У меня на сайте (ispets.ru) robots.txt выглядит так:
Код:
User-Agent: *
Disallow: /contacts/
Disallow: /tmp/
Host: ispets.ru
Но яндекс индексирует www.ispets.ru.
Только одна внешняя ссылка на сайт с www, все остальные без...
Что это, глюк яндекса или я где-то ошибаюсь?
У меня второй сайт индексируется без www, хотя в robots директива Host основной домен указан с www.... т.е. ситуация прямо противоположна вашей. Раздражает ужасно... Специально что ли директиву игнорируют или это такой способ замедления продвижения? Если я у себя поставил основной хост с www логично, что я и ссылки себе наращиваю на www... а в индексе sait.ru и когда его соблаговолит посетить зеркальщик не известно...
или это такой способ замедления продвижения?
По хорошему, если Яндекс нормально домены зазеркалил, то не важно на какой домен ссылку ставить. Все равно работать будет.
albion, на сей счет не спорю, я говорю о замедлении продвижения. Т.е. если, не дожидаясь индексации я начинаю наращивать количество ссылок на свой ресурс, предполагая что в индексе скоро появится мой www.sait.ru (Host то я прописал, думаю что все гуд) а тут на тебе, появляется sait.ru и пока не склеится с www ссылки мне давать ничего не будут.
albion, на сей счет не спорю, я говорю о замедлении продвижения. Т.е. если, не дожидаясь индексации я начинаю наращивать количество ссылок на свой ресурс, предполагая что в индексе скоро появится мой www.sait.ru (Host то я прописал, думаю что все гуд) а тут на тебе, появляется sait.ru и пока не склеится с www ссылки мне давать ничего не будут.
Да, ну тогда нужно изначально от этого застраховаться. Лично я на новый сайт сразу ставлю 301 редирект с одного домена на другой. Так как то спокойней.
Проблема-то в чем.... все время сайт был без www - (все внешние ссылки без - кроме одной).
А с недавнего времени страницы без www вылетели с выдачи, зато теперь появились с www и в индексе и в выдаче... хотя HOST всегда был прописан ispets.ru
хост не правильно прописан
так НЕ правильно
User-Agent: *
Disallow: /contacts/
Disallow: /tmp/
Host: ispets.ru
директива Host знакома только яндексу и прописывается для него отдельно:
User-Agent: *
Disallow: /contacts/
Disallow: /tmp/
User-Agent: Yandex
Disallow: /contacts/
Disallow: /tmp/
Host: ispets.ru
"Использование дополнительных директив в секции *"
http://robotstxt.org.ru/RobotstxtErrors
Сталкивался с такой проблемой. Быстрее всего исправить - сначала запретить к индексации, потом с правильным robots.txt открыть.
Недавно BigBrother хвалился, что зеркальщик на порядок быстрее стал работать..поэтому можно и без удаления поробовать.
директива Host знакома только яндексу и прописывается для него отдельно:
Ну значит для Яндекса - правильно написано ;)
Ну значит для Яндекса - правильно написано ;)
вот поэтому и
host в стандарте нет, это расширение. поэтому для Яндекса отдельно и следует писать.