- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
мне нужно чтобы Яша не индексировал странички вида: www.site.ru/size/88?filter=11
но при этом индексировал www.site.ru/size/88
что мне прописать в роботс.тхт для яши?? Disallow: /size/*?* так ?
Disallow: www.site.ru/size/88?
Disallow: www.site.ru/size/88?
Я имел ввиду что после последнего слеша идёт число любое, потом знак вопроса, а потом любой текст...
не, регулярные выражения движки пока неподдерживают.
Попробуйте в шаблон движка вкрячить что-то такое (в шаблон, в хиад):
MasterRico, судя по новым правилам составления robots.txt для Яндекса, все верно.
Но ставьте это только в секции с User-agent: Yandex, а то другие могут не понять.
А вообще JonnyB дело говорит. Его вариант универсальный.
Спасибо за ответы ! )
кто подскажет что именно необходимо вписывать в robots.txt
достаточно просто:
User-agent: *
Disallow:
то есть получается
User-agent: * #относится ко всем роботам
Disallow: #никаких запретов
или надо еще что то там прописывать? может кто даст пример или подскажет что мне надо для обычного сайта, без различных закрытых областей, архивов и т.д.
кто подскажет что именно необходимо вписывать в robots.txt
достаточно просто:
User-agent: *
Disallow:
то есть получается
User-agent: * #относится ко всем роботам
Disallow: #никаких запретов
или надо еще что то там прописывать? может кто даст пример или подскажет что мне надо для обычного сайта, без различных закрытых областей, архивов и т.д.
Самый хороший вариант в твоем случае не делать robots.txt , ты всё равно ничего запрещать не собираешься, просто удали этот файл - не ошибешься...
Или, если для тебя принципиален сам факт наличия robots.txt , пропиши туда что-то типа
но имей ввиду, что это не безопасно
MasterRico, судя по новым правилам составления robots.txt для Яндекса, все верно.
Но ставьте это только в секции с User-agent: Yandex, а то другие могут не понять.
А вообще JonnyB дело говорит. Его вариант универсальный.
а сколько будет стоить составить описание (готовый файл robots.txt) для моего сайта (простой без наворотов) ?
сам вроде все прочитал, вроде понял, но лучше когда это сделают профи
а сколько будет стоить составить описание (готовый файл robots.txt) для моего сайта (простой без наворотов) ?
сам вроде все прочитал, вроде понял, но лучше когда это сделают профи
Если есть лишние деньги, заплати мне :) А вообще это бесплатная опция ;)
а сколько будет стоить составить описание (готовый файл robots.txt) для моего сайта (простой без наворотов) ?
сам вроде все прочитал, вроде понял, но лучше когда это сделают профи
Создайте файл robots.txt
с директивами:
Уверен, если вам ничего больше ненужно, то и не заморачивайтесь.
Проверить свой роботс можете здесь: http://www.yandex.ru/cgi-bin/test-robots