- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Что делать, если ваша email-рассылка попала в спам
10 распространенных причин и решений
Екатерина Ткаченко
Параметры URL https://support.google.com/webmasters/answer/6080548?hl=ru
отличная ссылка - спасибо
Насколько я знаю как не закрывай в роботсах - все равно будет висеть в дополнительном поиске.
Попробуйте в роботсах оставить открытыми, а на таких страницах прописать ноуиндекс/ноуфоллоу
через админку на такие странице не могу зайти.
я думал часть скрыть через disallow
и чтобы быстрее выпали вручную, пускай их даже штук 200
"попросить" гугл убрать из поиска
тестировал на пару страницах. из поиска действительно выпали.
Disallow: /*.html?*?___from_store=ru=
Disallow: /*.html?*?___from_store=ua=
По поводу ? возможно не уверен
попробую, посмотрим через пару дней
спасибо
через админку на такие странице не могу зайти.
Так не через админку. Ftp, шаблон сайта. Какой нибудь костыль типа "Если в урле страницы есть "?___from_store=" - то выводить ноуиндекс ноуфоллоу
А так я не заморачивался с фильтрами и написал
Disallow: /*?
И не обращаю внимания. (Но я то с яндексом работаю)
з.ы. мне кажется правильным: [Del]
Я пробовал, но не помогло
Disallow: /*?___from_store=ru
Disallow: /*?___from_store=ua
с точки зрения синтаксиса robots.txt тут все правильно
как вариант добавить на страницы rel="canonical" http://googlewebmastercentral.blogspot.ru/2009/02/specify-your-canonical.html
---------- Добавлено 09.12.2015 в 14:10 ----------
з.ы. мне кажется правильным Disallow: /*?___from_store=*
там сравнение по подстроке, поэтому в конце * необязательно ставить
там сравнение по подстроке, поэтому в конце * необязательно ставить
А, ну да. привычка. А то кажется незаконченным :D
Allow: /forum-review.php?
А раздел тем и далее топики получаются закрыты!
А раздел тем и далее топики получаются закрыты!
Все правильно написали выше. все что содержит данное выражение будет индексироваться.
Логичней было бы сразу в вебмастере проверить, не зря же такие делают инструменты
Disallow: /*?
И не обращаю внимания. (Но я то с яндексом работаю)
Тю))
Может все действительно так просто. и мне сделать
Disallow: /*?
А что думаете будут проблемы в гугле?
Вообще с яндексом мы тоже дружим. Но акцент на гугл.
Тю))
Может все действительно так просто. и мне сделать
Disallow: /*?
А что думаете будут проблемы в гугле?
Вообще с яндексом мы тоже дружим. Но акцент на гугл.
Так правила написанные вами тоже работают.
Проблема что гугл, в отличии от яндекса, закрытое в роботсах хранит в "дополнительном поиске"
А какие могут быть проблемы в гугле при закрытии дублей?
Все правильно написали выше. все что содержит данное выражение будет индексироваться.
Логичней было бы сразу в вебмастере проверить, не зря же такие делают инструменты
От вэбмастера и иду!
Форум индексируется:мой сайт/forum-review.php
А вот все что далее пишет красненьким /*?PAGE*
Так правила написанные вами тоже работают.
Проблема что гугл, в отличии от яндекса, закрытое в роботсах хранит в "дополнительном поиске"
А какие могут быть проблемы в гугле при закрытии дублей?
то есть получается, если я удалю вручную их из поиска. то они больше когда не появятся.
потому что мои правила работают
я просто думал, что мои правила не работают. Почему?
У меня было больше дублей на порядок. Я закрыл часть из них и в итоге увидел в вебмастере, снижение количества.
А в этом случае - все стоит на месте. Вот и подумал, что правила мои не работают.