- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Что делать, если ваша email-рассылка попала в спам
10 распространенных причин и решений
Екатерина Ткаченко
VK приобрела 70% в структуре компании-разработчика red_mad_robot
Которая участвовала в создании RuStore
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Видимо так
User-agent: *
Dissalow: /slovo-full/
Ну а если этих страниц не мало, более 1000?
ColdMAN, а как это будет в моем случае выглядеть?
вот так:
User-agent: *
Disallow: /*-full
Мне нужно сократить роботс.тхт, т.к. писать 1000 строк не вариант! :)
Кстати, как можно проверить правильность роботс.тхт, а то вдруг закроются страницы не те?
http://webmaster.yandex.ru/wmconsole/public_robots_txt.xml
Камрады, Цахес прав. Насколько я помню команды Dissalow: не существует. Есть Disallow:
Смотрите не ошибитесь, роботы не любят арфаграфических ошибок ))).
Сори что вклиниваюсь. Нашол сдесь http://robotstxt.org.ru/RobotstxtErrors, черным по белому написано что инструкции allow несуществует
http://help.yandex.ru/webmaster/?id=996567
может и по мировым стандартам не существует, но для яндекса существует)
то есть robots для яндекса может включать инструкцию allow
Народ, не забывайте еще про такую весьма полезную директиву как
Clean-param
а можно закрыть с помощью robots определенные внешние ссылки на сайте? (рекламу adsens например)
Ну а если этих страниц не мало, более 1000?
ColdMAN, а как это будет в моем случае выглядеть?
вот так:
User-agent: *
Disallow: /*-full
Мне нужно сократить роботс.тхт, т.к. писать 1000 строк не вариант! :)
Кстати, как можно проверить правильность роботс.тхт, а то вдруг закроются страницы не те?
Disallow: /slovo-full
Запрещает все страницы (и папки и файлы), начинающиеся с "slovo-full" и неважно сколько их.
Небольшой офф:
А если в баре яндекса видит ошибки 404 (страницы я удалял), их в роботс нужно все вписывать теперь?
подскажите как закрыть от индексации ссылку с Баннера (ссылка с баннера ведет на чужой сайт)