- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Тренды маркетинга в 2024 году: мобильные продажи, углубленная аналитика и ИИ
Экспертная оценка Адмитад
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Ты имеешь в виду, что пропадут все страницы содержащие букву f ? То есть так : /*(все) буквы f/, а если так, то только /*(все)/ f идущие после слеша. ?
А разве это странно? Есть понятие "шаблон", "маска"...
Подгоняй правила под урл или урл под правила. Никакой высшей математики.
По-моему, это элементарщина.
halkhogan, если честно, вы пробовали читать http://help.yandex.ru/webmaster/?id=996567 ?
Вы хоть раз видели, чтобы директива Host болталась в файле как гавно в проруби?
К какому поисковику она должна относиться, вы в курсе?
Да конечно это все прочитано, просто это первый опыт в данной теме, я имею введу составление файла robots, просто у нас с начальником разногласия. Он считает, что должно быть как у конкурентов и заставляет идти в этом направлении. По моему мнению, robots.txt должен выглядеть так:
User-agent: *
Disallow: /cpbazu
Disallow: /search
Disallow: /sxd
Disallow: /noimages
Disallow: */v/*=*
Disallow: /*f/
Sitemap: http://site.com/sitemap.xml
User-agent: googlebot
Disallow: /cpbazu
Disallow: /search
Disallow: /sxd
Disallow: /noimages
Disallow: */v/*=*
Disallow: /*f/
User-agent: Yandex
Disallow: /cpbazu
Disallow: /search
Disallow: /sxd
Disallow: /noimages
Disallow: */v/*=*
Disallow: /*f/
Host: site.com
Но начальник говорит, что я не прав и вы, кажется, тоже так считаете. Ну что ж, буду больше читать. Просто каждая ситуация индивидуальна и не имея должного опыта, куда надежнее "показать проблему" и услышать мнение специалистов именно по конкретному вопросу, а когда читаешь решения чужих проблем или даже help, то все равно остаются сомнения, ведь не все поисковые системы одинаково работают с "роботсом".
halkhogan добавил 26.02.2011 в 13:30
А разве это странно? Есть понятие "шаблон", "маска"...
Подгоняй правила под урл или урл под правила. Никакой высшей математики.
По-моему, это элементарщина.
Просто я раньше этим "роботсом", никогда не занимался, программисту дали задание запретить определенные страницы, он и запретил, а сейчас другой программист, студент, ничего не знает, что, как и почему делал предыдущий, как в принципе и я этого не знаю. Ну ладно, спасибо большое, что подсказал в каком направлении двигаться, теперь хоть что-то прояснилось.
а когда читаешь решения чужих проблем или даже help, то все равно остаются сомнения,
Тогда да, лучше help не читать. А то вдруг окажется, что вы списали у двоечника и проверили у группы троечников. А от учебников - да, один вред.
Тогда да, лучше help не читать. А то вдруг окажется, что вы списали у двоечника и проверили у группы троечников. А от учебников - да, один вред.
Злой вы дядька «модератор», хотя на то вы и модератор. Просто ситуация у меня такая, что некогда зачитываться, надо дело делать. После нового года уволился наш «сеошник» и программист. Нового «сеошника» не нашли, да и не ищут, а программиста нашли, но молодого не опытного. Я раньше занимался только контекстной рекламой, акциями и т.д. Про СЕО и не заморачивался. А теперь, меня не спрашивая, на меня повесили интернет магазин и мне нужно теперь и старые проблемы решать, и что-то новое придумывать. Но это ладно, одно не ясно, ветка называется «Любые вопросы от новичков», я здесь и намного более «избитые» вопросы встречаю каждый день и ничего, и люди отвечают, не плюются, и вы на них так агрессивно не реагируете, как на мой вопрос. Хотя с другой стороны, как я уже говорил: "на то вы и Модератор"). Ладно больше не спорю.
Мы пока ничего не "клеем", а потому и спрашиваем, как правильно указать главный хост, чтобы не навредить? Наш "роботс", пока, как указано в первом примере, без Disallow: /, просто увидели на сайтах у конкурентов (успешных), почитали на некоторых форумах и теперь ищем ответ. Правда, на сайте у конкурентов robots.txt был такой
"
User-Agent: *
Disallow: /cgi-bin
Disallow: /search
Disallow: /*sort=*
User-agent: Yahoo
Disallow: /
Host: site.com
"
User-agent: Yahoo
Disallow: /
Сайт закрыт от индексации, только для робота yahoo.
ветка называется «Любые вопросы от новичков»,
Обратите внимание, что здесь имеется FAQ (угадайте, для чего и для кого его кто-то писал и составлял), в котором написано:
1. Прежде, чем писать вопрос о каком-либо поисковике, необходимо изучить соответствующую первичную документацию:
Disallow: /*f/
Но начальник говорит, что я не прав
наверное, лучше
Disallow: /*/f/