Все вопросы по robots.txt

cheredov
На сайте с 07.04.2011
Offline
125
#131
ebitok:
Ламерский вопрос от меня, точней уточнение)
На сайте есть несколько страниц ?page=1 ?page=2 и т.д.
На этих страницах ссылки на страницы: index.php?news=1 index.php?news=2 и т.д.
в robots.txt у меня:

Нужно: что бы не индексировались страницы ?page , но news должны индексироваться.
Вопрос: будет ли индексироваться news если закрыты ?page ? и доступ к этим News лежит только через page
Просто хз уже на что думать, уже 2 апа не индексит(
Такое ощущение, что робот не обходит вообще странички которые в Disallow, хотя должен обходить, но не индексировать их
Надеюсь поняли меня😂

Чтобы было как вы хотите добавьте <meta name="robots" content="noindex, follow"> на страницы ?page=, убрав dissalow из роботса. Либо просто оставьте запрет в роботс.тхт, а страницы с новостями добавьте в карту сайта. Вообще способов указать роботу страницы для индексации масса. Например вручную в поиске для сайта от Яндекса.

---------- Добавлено 12.03.2014 в 13:36 ----------

ebitok:
Такое ощущение, что робот не обходит вообще странички которые в Disallow, хотя должен обходить, но не индексировать их

Вы неверно понимаете.

Иван Чередов (http://ivan.cheredov.com/about/)
ebitok
На сайте с 07.11.2011
Offline
112
#132

Нужно закрыть все страницы Где встречается: ?id=1

делаю так: Disallow: /*?id=1

Но он закроет и 11 и 12 итд...

как закрыть только 1?

подскажите плиз

alexspb
На сайте с 14.11.2005
Offline
187
#133

ebitok, конец строки обозначает знак $

ebitok
На сайте с 07.11.2011
Offline
112
#134

точно, уже и сам нашел) но все равно спасибо

D
На сайте с 24.03.2014
Offline
0
ddk
#135

Подскажите, пожалуйста, по таком вопросу. на сайте нужно запретить индексацию страниц с фильтрами и сортировкой (filter,min,max,sort)

страницы могут иметь вид

catalog.html?cat_id=12&filter=s125i15;s1256i145&min=123&max=1256

или

telefonyLG?filter=s125i15;s1256i145&min=123&max=1256

при этом страницы catalog.html?cat_id=12 должны индексироваться

можно мне прописать в robots.txt

User-agent: *

Allow: /*?cat_id=

Disallow: /*?*

или как-то так

Disallow: /*&filter=*

Disallow: /*&min=*

Disallow: /*?filter=*

Disallow: /*?min=*

cheredov
На сайте с 07.04.2011
Offline
125
#136
ddk:
или как-то так

Disallow: /*&filter=*
Disallow: /*&min=*
Disallow: /*?filter=*
Disallow: /*?min=*

так лучше. или еще можно яндексу clean-param, гуглу в вебмастере указать ненужные параметры.

P
На сайте с 06.01.2009
Offline
592
#137

Ребят, Гуру, подскажите, пожалуйста, я просто сделать невозможное, сам своими руками убрал из индекса страницы разделов. Около 42 страниц. Яндекс их выкинул потому, что я накосячил с robots.txt

Подскажите, как их быстро можно вернуть в индекс или остается только ждать?

ps перелинковку внутреннюю в рассчет не беру, так как разделы хорошо перелинкованы и с морды ссылки есть в разделы.

ps увидел, что сделал глупость только потому, что позиции просели прилично.

Cordis
На сайте с 05.12.2009
Offline
88
#138

postavkin твитером прогоните все страницы, желательно с парочки аккаунтов. Да, и не забудьте подправить роботс :)

Миру-мир!
N8
На сайте с 25.03.2014
Offline
0
#139

Здравствуйте, как должен выглядеть файл robots.txt для одностраничника - лендинга сделанном на html ?

Во всех генераторах у меня выдает только такую строку User-agent: * Но еще говорят там нужно для яндекса отдельно его прописать?

и закрыть ненужно от индексации?

У меня например в корне только файлы: index.html, favicon.png, папка images, папка js, папка css

как мне правильно составить robots ?

И еще второй вопрос: тематика лендинга - разработка мобильных приложений, посоветуйте, я собираюсь продвигать через sape. По каким запросам лучше это делать в первый месяц НЧ или ВЧ и с каком количестве?

И сколько примерно нужно вкладывать денег на первый-второй месяц? ну и последующие

Спасибо!

Jaf4
На сайте с 03.08.2009
Offline
804
#140
nikolyam87:


как мне правильно составить robots ?

Пофиг, лендинг делается не для поискового трафика. ☝

nikolyam87:
я собираюсь продвигать через sape.

деньги на ветер

New! NVMe VPS от SmartApe.ru (https://goo.gl/eoYYkS)

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий