- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Сначала гугл все проиндексировал.
Потом все выкинул.
Вот роботс
User-agent: *
Disallow: *route=account
Disallow: *route=affiliate
Disallow: *route=checkout
Disallow: *route=product
Disallow: *search
Disallow: *?
Disallow: /admin
Disallow: /catalog
Disallow: /download
Disallow: /system
Disallow: *?sort=
Disallow: *&sort=
Disallow: *?order=
Disallow: *&order=
Disallow: *?limit=
Disallow: *&limit=
Disallow: *?filter_name=
Disallow: *&filter_name=
Disallow: *?filter_sub_category=
Disallow: *&filter_sub_category=
Disallow: *?filter_description=
Disallow: *&filter_description=
Disallow: *?tracking=
Disallow: *&tracking=
disallow: *?route=*
disallow: *?sort=*
Disallow: /*?sort=*
Пишет
Описание веб-страницы недоступно из-за ограничений в файле robots.txt.
Так выкинул или пишет?
Много раз уже говорили, что гуглу плевать на директивы.
Мне кажется, лучшая тактика- автоматом прописывать у таких страниц <meta name="robots" content="noindex, nofollow" />, у "фильтровых" как вариант каноникал. Только после этого в роботс надо снова разрешить сканирование таких страниц. наверное и это не панацея, но кажется надёжнее, да поправят меня ГуглоГуру
- покажите сайт, а то как-то подозрительно.
Оужос. Clean-param вам незнакомо? А для гугла те аргументы, которые нужно игнорировать, в вебмастерсе можно указать