- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Переиграть и победить: как анализировать конкурентов для продвижения сайта
С помощью Ahrefs
Александр Шестаков
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
как прописать главную страницу в роботсе ?
О чём речь? Запретить? Разрешить?
Разрешить
Allow: main page )
При заходе юзверя выдается 2ув страница геопринадлежности вместо главной. Пример: domain.com/rus
domain.com/ita
При этом хочется оставить к индексации и саму главную без георедиректа domain.com
От конкретных условий всё зависит. Что вы глупости с порядком придумываете.
А что, есть разница в порядке?
А что, есть разница в порядке?
Есть как бы...
Подскажите как правильно составить файл robots.txt чтобы индексировалист страницы вида
от
script.php?a=1
...................
script.php?a=1000
и не индексировались
от
script.php?a=1001 и т.д.
Подобное, мне думается, правильней сделать в php. Например так:
В самый верх (Выше всего кода) файла script.php добавьте код
После в html код, между тегами <head>...</head> Вставить
Думаю так будет намного удобней и правильней, чем robots.txt горомоздить тысячами строк
Где написано что больше 35К robots.txt игнорируется?
http://help.yandex.ru/webmaster/?id=996567#996575
http://help.yandex.ru/webmaster/?id=996567#996575
Весомый аргумент.
Z-Style добавил 18.11.2010 в 15:04
Есть как бы...
Можно по-конкретней?
от
script.php?a=1
...................
script.php?a=1000
и не индексировались
от
script.php?a=1001 и т.д.
А так ведь можно?!
Allow: /script.php?a=1000$
Allow: /script.php?a=100$
Disallow: /script.php?a=100*
А вообще на всех страницах которые не нужно индексировать(например script.php?a=1001 и т.д.) поставьте мета-тег
<META NAME="ROBOTS" CONTENT="NOINDEX, NOFOLLOW">
Можно по-конкретней?
Если урл попадает под две директивы, то какая будет рабочей?
А так ведь можно?!
Allow: /script.php?a=1000$
Allow: /script.php?a=100$
Disallow: /script.php?a=100*
Запрещены 1001, 1002, 100500.... А 1245, 1553, 255555 кто будет запрещать?
Allow разрешает только 1000 и 100 (т.е. две страницы).
Что за бред?
semenov, Вы сослались на мануал Яндекса, а здесь о Гугле.
Насчет знака $ - в мануале Гугла говорится, что он применется для обозначения урла, оканчивающегося на что-то. Например, оканчивающегося на вопр знак:
Это вроде как не значит, что он разрешает все, содержаещее этот символ. В мануале пример
User-agent: *
Allow: /*?$
Disallow: /*?
запрещает все, содержащее ?, но разрешает урлы, оканчивающиеся на ?.
Если ТС имел в виду, что урлы, которые он хочет разрешить, оканчиваются на 1000, 2000 и т.д. - то $ на конце будет работать. Если не оканчиваются - вроде как не будет.