- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
VK приобрела 70% в структуре компании-разработчика red_mad_robot
Которая участвовала в создании RuStore
Оксана Мамчуева
Тренды маркетинга в 2024 году: мобильные продажи, углубленная аналитика и ИИ
Экспертная оценка Адмитад
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
На сайте есть куча уров вида:
/трам-парам/парам-пам-пам.htm
А также:
/трам-парам/парам-пам-пам.htm?param=value
Вопрос состоит в том, как закрыть в robots.txt урлы второго вида, сохранив при этом первые, а также сохранив урды вида:
/трям/трям.php?param=value
P.S. Вариантов /трам-парам/парам-пам-пам очень много, всех их по одному записать в robots нереально.
Например, так:
User-agent: Yandex
Allow: /трям/трям.php?
Disallow: /трам-парам
Solmyr, для яндекса легко.
User-agent: Yandex
Disallow: /трам-парам/*.htm?
ИМХО добавил 09.05.2008 в 18:51
Подробнее здесь
http://help.yandex.ru/webmaster/?id=996567
ИМХО добавил 09.05.2008 в 18:52
drima, так вы запретите
/трам-парам/парам-пам-пам.htm
ИМХО, а для гугла сработает?
Почитал http://www.robotstxt.org/orig.html
.... не сработает...
Ладно, я слыхал индексацию еще можно метатегами прикрыть? сейчас поищу как.... Яндекс метатеги запрещающие индексацию учитывает?
Solmyr, про метатеги не знаю.
Если вы вдруг ищете решение известной проблемы с неотображением ссылок Sape при добавлении параметров, то там другое и достаточно простое решение.
Учитывает. По одному на страницу. Вроде тут.. А можно для гугла отдельно в роботс запреты прописать: http://www.google.ru/support/webmasters/bin/answer.py?answer=40367
Если вы вдруг ищете решение известной проблемы с неотображением ссылок Sape при добавлении параметров, то там другое и достаточно простое решение.
Когда писал вопрос, так и думал что возникнут ассоциации с этой проблемой в сапе :) нет не для этого.
Хотя если не влом, тыкните куда смотреть, как решается та проблема с сапой :) :) :)
/трам-парам/парам-пам-пам.htm?param=value
Вопрос состоит в том, как закрыть в robots.txt урлы второго вида, сохранив при этом первые, а также сохранив урды вида:
/трям/трям.php?param=value
Disallow: *?*
Спасёт?
Disallow: *?*
Спасёт?
Спасет, если гугл это поймет. Уже разобрались, что Яндекс поймет. А вот гугл....
Solmyr, та штука решается редиректом со страниц с параметрами на страницы без параметров, вас это почти наверняка не устраивает.
Решение которое предложил Слава Шевцов запретит также к индексации /трям/трям.php?param=value.
ИМХО, да, не заметил, что их нужно сохранять.
Disallow: *html?*