- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Маркетинг для шоколадной фабрики. На 34% выше средний чек
Через устранение узких мест
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Добрый вечер
Могли бы помочь ? Проблемы с сайтом, взялся за сайт на Битрикс.
Посмотрел через сайт-аудит, в индексе Яндекс ~ 20 стр., в Гугле - 500+.
На самом сайте сейчас как раз около 20 страниц.
А можно сделать, что бы гугл индексировал нормально, например заблокировать всё кроме 20 стр. можно так ? Какие есть варианты ?
например заблокировать всё кроме 20 стр. можно так ?
Можно.......
Можно.......
А как лучше ?
И как сделать ? Подскажите ?
А как лучше ?
И как сделать ? Подскажите ?
Что надо открываешь, а остальное всё закрываешь.
Что надо открываешь, а остальное всё закрываешь.
Абсолютно согласен. Так вам и надо сделать!
в robots.txt прописать надо примерно следующее:
Disallow: /old
always: /one
P/S/ Disallow означает запретить что либо. А always разрешить что либо.
в robots.txt прописать надо примерно следующее:
Disallow: /old
always: /one
P/S/ Disallow означает запретить что либо. А always разрешить что либо.
Шёл бы ты погулять, деточка.
покажите сайт, получите конкретный ответ возможно.
А по факту присоеденюсь к вышесказанному: >>> Что надо открываешь, а остальное всё закрываешь.
Вернее ненужное просто нужно зарыть от индексации.
Двигло генерит динамические страницы, да ещё и с дублями. Косяк старый и известный. Решается двумя путями - на сайте поднимается модуль ЧПУ, но тогда урлы меняются. Или кропотливо, через robots.txt, закрывать все дубли.
Или кропотливо, через robots.txt, закрывать все дубли.
А можно в вебмастере-Доступ для сканера-Удалить URL
А always разрешить что либо.
ORLY? Oo
__