Leks007

Рейтинг
76
Регистрация
15.04.2015

ТС попробуйте плагин All in One SEO Pack

---------- Добавлено 23.03.2016 в 15:45 ----------

Smart Shot:
Зачем спрашивать у народа, если можно спросить у Платона:
«Если страница закрыта от индексирования в robots.txt, робот не посещает такую страницу и не скачивает ее содержимого, в том числе и ссылки.»

Похоже, что вы правы. Попробую использовать мета тег robots и параметр noindex.

Нашел интересную статью, где разжевано подробно, советую

Страницы, которые не должны быть проиндексированы и не должны попасть в индекс поисковых систем, стоит запрещать при помощи метатега robots и параметра noindex: <meta name="robots" content="noindex">
Страницы, содержащие тег robots не должны быть запрещены к индексации через robots.txt

Что там с вводом налички сейчас ? Пошли деревянные в Вебмани или нет ?

Sezhers:
Можно поставить в настройках Wordpress, чтобы у следующих страниц после первой дописывалось в тайтл "Страница 1...n"

Хороший совет, тоже использую. Просто для удобства пользователей, но стр закрываю в роботсе такие.

Нашел тут статейку


Еще один, менее распространенный способ запрета индексации – мета-тэг Robots. Если вы хотите закрыть от индексации страницу или запретить поисковикам индексировать ссылки, размещенные на ней, в ее HTML-коде необходимо прописать этот тэг.
если вы хотите закрыть страницу от индексации и запретить поисковикам учитывать ссылки на ней, вам надо добавить в код такую строку:

<meta name=“robots” content=“noindex,nofollow”>
Если же вам наоборот, надо скрыть страницу от ПС, но при этом учитывать ссылки, данный тэг будет иметь такой вид:

<meta name=“robots” content=“noindex,follow”>
Smart Shot:
Конечно, если хотите, чтобы все статьи на 2, 3, ..., N страницах не индексировались :)
Нужно просто canonical поставить с 2, 3, ..., N страниц на первую и все будет ок.

К моему стыду, я всегда думал, что подобное нужное в роботсе закрывать. Допускаю, что могу ошибаться.

Вроде как робот сканит ссылки на материалы с этих страниц и учитывает, а сами страницы (навигации в нашем случае) в индекс не пускает. Robots.txt не запрещает сканировать такие страницы, он исключает их из выдачи. Почему то так у меня это в голове.

Вопрос вроде простой, но на самом деле очень важно правильно понимать принципы работы robots.txt

Народ кто нас рассудит ?

С тизерками даже не связывайтесь. Напрасная трата денег в вашем случае.

Местные газеты, авито, и другие сайты по недвижке, там размещайте объявления

Да, это по сути дубли.

Надо в роботс тхт закрыть от индексации

/*page*

+ используйте атрибут rel=canonical

тут можно почитать

У меня их целых две. Иногда получаю удовольствие, иногда нет. А в душе, я гонщик 🤪

иногда все надоедает, тогда мне нужно получить порцию адреналина... желательно разными способами

supp visitweb:
На данный момент доход по системе стабилизируется и растёт. Увеличилась конкуренция и выросли цены за клик.
Видимо, у Вас идёт преобладание веб трафика. Напишите тикет, мы посмотрим ситуацию по Вашему трафику.

Подтверждаю на visitweb наблюдается рост стоимости клика, пока не вернулся на уровень "до отключения МТС", но уже лучше.

А вот на Бодиклике, цены не возвращаются. (

На тизернете, тоже небольшой рост цены.

Я имею в виду именно среднюю цену одного клика.

---------- Добавлено 21.03.2016 в 15:51 ----------

Buxer:
Что же, заработок идет вниз. Трафик в норме. Еще сутки-двое и придется присматриваться к другим пп 😡

Друг, шепни на ушко, если найдешь лучше.

kuprum:
здесь логичнее спросить

/ru/forum/789671

Возможно, спасибо. Просто думал, в теме ПП нельзя вести обсуждения. Типа там только офиц. новости и анонсы.

Leks007, вы не имеете прав для доступа к этой странице. Это может быть вызвано несколькими причинами...

не могу (

надо сделать

Всего: 327