- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Что делать, если ваша email-рассылка попала в спам
10 распространенных причин и решений
Екатерина Ткаченко
VK приобрела 70% в структуре компании-разработчика red_mad_robot
Которая участвовала в создании RuStore
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Сайт в режиме блога и я закрыл листалки страниц в роботс во избежание дублей. Сбоку и снизу стоят блоки гугл адсенс и когда человек начинает листать, ища интересную для него информацию, то на тех страницах реклама не отображается.
На днях адсенс просек эту фишку и сами прислали сообщение, что типа вначале роботс нужно воткнуть такие команды чтобы роботы адсенс ставили рекламу в закрытых страницах:
User-agent: Mediapartners-Google
Disallow:
Однако если так поставить в роботс, то страницы и для поисковых роботов откроются и будут дубли.
Как сделать так, чтобы в листалках отображалась реклама?
Однако если так поставить в роботс, то страницы и для поисковых роботов откроются и будут дубли.
Не откроются, вы ведь в этой строке только роботу адсенс открываете все страницы. Для остальных роботов ничего не меняется. Эта директива не для них и ими игнорируется. В том числе и основным роботом-индексатором гугла.
Добавьте эту строчку, о которой вы писали и реклама будет отображаться. У меня на форуме множество дублей закрытых в роботс.тхт, но реклама отображается везде. Я правда не могу со стопроцентной уверенностью сказать, что она оплачивается - этого не знаю, но вроде оплачивается, т.к. прибыль на том же уровне примерно осталась. Но в любом случае основная масса точек захода на сайт - поисковые системы, т.е. те страницы, которые проиндексированы и разрешены в роботс.тхт.
Не откроются, вы ведь в этой строке только роботу адсенс открываете все страницы. Для остальных роботов ничего не меняется. Эта директива не для них и ими игнорируется. В том числе и основным роботом-индексатором гугла.
Почему тогда, когда я проверяю в вебмастере гугла и яндекса во вкладке роботс и вставляю закрытые страницы, то пишется что они открыты для индексации?
Как только я убираю эту директиву сверху, то дубли урлов сразу становятся закрытыми для поисковых роботов.
... вставляю закрытые страницы, то пишется что они открыты ... Как только я убираю эту директиву сверху, то ... становятся закрытыми ...
Вместо "Disallow:" укажите "Allow: /" и «воткните в конец».
Вместо "Disallow:" укажите "Allow: /" и «воткните в конец».
Ооооо, это уже ближе к теме - спасибо. На данный момент блок показывается - правда совсем нетематическая реклама(играть в онлайн игру) хотя у меня бизнес портал.
Как гугл загрузит обновленный роботс и инфа обновится, надеюсь тематическую показывать начнет.
Дубли в яндекс вебмастере проверил - закрыты при внесении в конец данной директивы (яндекс роботс сразу же обновляет)
Вы хотите разместить объявления на всех страницах, но эти страницы не должны отображаться в Поиске в Google. Для этого заблокируйте доступ к содержанию агенту пользователя Googlebot, но оставьте его доступным агенту пользователя Mediapartners-Google следующим образом:
User-agent: Googlebot
Disallow: /
User-agent: Mediapartners-Google
Disallow:
https://support.google.com/webmasters/answer/1061943?hl=ru
А вообще говоря "Disallow:" и "Allow: /" это одно и то же
Почему тогда, когда я проверяю в вебмастере гугла и яндекса во вкладке роботс и вставляю закрытые страницы, то пишется что они открыты для индексации?
Как только я убираю эту директиву сверху, то дубли урлов сразу становятся закрытыми для поисковых роботов.
Яндекс то тут при чем? Ему вообще параллельно на директивы для гугла и адсенс в роботс. Эти директивы только для робота адсенс!
Вообще у меня в роботс стоит первой строкой:
User-agent: Mediapartners-Google
Disallow:
и адсенс показывается на всех страницах, даже закрытых далее разными фильтрами в роботс.
Я понял свою ошибку - User-agent: * заменил на
User-agent: Mediapartners-Google
Disallow:
Видимо поэтому пооткрывались закрытые страницы.
Сейчас посмотрю в течении нескольких дней что будет показывать гугл на мой роботс что сейчас изменил. Если не будет нормальных объявлений, то сверху просто добавлю
User-agent: Mediapartners-Google
Disallow:
а не буду менять существующий User-agent: *
Наверное в этом дело было.
А яндекс при том ,что мне не хочется, чтобы яндекс индексировал дубли - он бы их индексировал, если бы я оставил как изменил в первый раз.
У меня так начинается robots:
User-agent: Mediapartners-Google
Disallow:
далее идет список запретов для всех роботов:
User-Agent: *
Disallow: /xxx
Disallow: /xxxxxxx
ну а всё что не запрещено - открыто, поэтому директиву allow можно не использовать, но можно и дописать в конце:
Allow: /