Траблы с robots.txt

IceHell
На сайте с 21.08.2010
Offline
95
603

Добрый вечер

Могли бы помочь ? Проблемы с сайтом, взялся за сайт на Битрикс.

Посмотрел через сайт-аудит, в индексе Яндекс ~ 20 стр., в Гугле - 500+.

На самом сайте сейчас как раз около 20 страниц.

А можно сделать, что бы гугл индексировал нормально, например заблокировать всё кроме 20 стр. можно так ? Какие есть варианты ?

Бары Москвы (http://www.gdebar.ru) - поиск развлечений по станциям метро в Москве.
kimberlit
На сайте с 13.03.2007
Offline
370
#1
IceHell:
например заблокировать всё кроме 20 стр. можно так ?

Можно.......

IceHell
На сайте с 21.08.2010
Offline
95
#2
kimberlit:
Можно.......

А как лучше ?

И как сделать ? Подскажите ?

kimberlit
На сайте с 13.03.2007
Offline
370
#3
IceHell:
А как лучше ?
И как сделать ? Подскажите ?

Что надо открываешь, а остальное всё закрываешь.

cheredov
На сайте с 07.04.2011
Offline
125
#4
kimberlit:
Что надо открываешь, а остальное всё закрываешь.

Абсолютно согласен. Так вам и надо сделать!

Иван Чередов (http://ivan.cheredov.com/about/)
optimoraiz
На сайте с 16.04.2010
Offline
24
#5

в robots.txt прописать надо примерно следующее:

Disallow: /old

always: /one

P/S/ Disallow означает запретить что либо. А always разрешить что либо.

kimberlit
На сайте с 13.03.2007
Offline
370
#6
optimoraiz:
в robots.txt прописать надо примерно следующее:
Disallow: /old
always: /one

P/S/ Disallow означает запретить что либо. А always разрешить что либо.

Шёл бы ты погулять, деточка.

SZ
На сайте с 08.06.2011
Offline
109
#7

покажите сайт, получите конкретный ответ возможно.

А по факту присоеденюсь к вышесказанному: >>> Что надо открываешь, а остальное всё закрываешь.

Вернее ненужное просто нужно зарыть от индексации.

Fat Bear
На сайте с 01.12.2006
Offline
264
#8

Двигло генерит динамические страницы, да ещё и с дублями. Косяк старый и известный. Решается двумя путями - на сайте поднимается модуль ЧПУ, но тогда урлы меняются. Или кропотливо, через robots.txt, закрывать все дубли.

Открыть счёт в Capitalist ( https://capitalist.net/reg?from=e5707ff0c3 ). Виртуальные карты, USDT, банковские переводы, выплаты партнёрских программ. Push-партнёрка с высоким рейтом hClicks(https://hclicks.com/?ref=61dc0714).
cheredov
На сайте с 07.04.2011
Offline
125
#9
Масол:
Или кропотливо, через robots.txt, закрывать все дубли.

А можно в вебмастере-Доступ для сканера-Удалить URL

Таггу x_x
На сайте с 31.10.2005
Offline
445
#10
optimoraiz:
А always разрешить что либо.

ORLY? Oo

__

☠️☠️☠️

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий