Google AdSense FAQ - Отвечаю на вопросы новичков!

сергей-034
На сайте с 14.06.2009
Offline
281
#791

И у меня пару вопрос :

- куда на вордпресе залить файл robots.txt? А то в "диагностика сайта" что то пишут что нет его, хотя я его и добавил в папку основную.

© Лучше с умным потерять, чем с дураком найти.
brus
На сайте с 29.11.2005
Offline
283
#792

сергей-034, а это тут причём?:)

В корень нужно лить.

► Биржа статей под Бурж и RU. iGaming разрешен. https://clck.ru/3FVUaP
сергей-034
На сайте с 14.06.2009
Offline
281
#793
ultraZzz...:
сергей-034, а это тут причём?
В корень нужно лить.

Да при том же причем и смена персональных данных 😂

В какой корень? В ту папку которая на картинке?

png 555.png
brus
На сайте с 29.11.2005
Offline
283
#794

сергей-034, да, в ту папку которая на картинке.

сергей-034
На сайте с 14.06.2009
Offline
281
#795

ultraZzz..., так я туда и заливаю, но что то бот адсенсовский не видит его 🤪

Independence
На сайте с 29.10.2005
Offline
428
#796

В разделе "Диагностика сайта" приводятся "Заблокированные URL". При этом в причинах блокировки везде стоит "файл robots.txt"

Например, среди таких страниц есть http://hghltd.yandex.net/ (подсветка содержимого страниц сайта, некоторые посетители так смотрят) - это понятно, непонятно, какое отношение мой robots.txt имеет к заблокированной странице Яндекса.

Еще один заблокированный URL - http://translate.googleusercontent.com - переводчик Google, видимо, иностранцы заходили смотрели. Вопрос аналогичный что и выше.

Но это ладно. Больше всего у меня вызывает вопрос блокировки содержимого, которое выдают cgi-скрипты. У меня в robots.txt действительно заблокировано для роботов поисковых систем чтение старых сообщений форума (которые выдаются через cgi-скрипты, закрыта полностью одна из cgi-папок и скрипты оттуда). При этом текущие сообщения доступны как через html (у них есть короткие html-адреса для удобства пользователей), также их их можно посмотреть через адрес, где есть cgi (не через html-адреса), но такие адреса более длинные.

А вопрос тут такой, начисляет ли Гугл бабло за клики на таких заблокированных страницах? А то реклама в код скриптов включена, на всех страницах форума, в т.ч. и на старых она активно крутится. Но если за это $ не капает, то смысла ее держать там нет, лучше тогда бегуна туда повесить или директ?

Independence добавил 14.02.2010 в 08:41

Повнимательне посмотрел, что выдает Adsense на этих CGI-адресах (типа mysite.com/cgi-bin/forum.cgi?page=2 и пр.). Везде он показывает или социальную рекламу, или что-то невразумительное на английском языке.

Можно ли как-то сделать и как, чтобы эти страницы не попали в индекс поисковой системы Google, но при этом, чтобы Adsense их нормально сканировал и там бы показывалась нормальная реклама.

У того же Бегуна нет поиска как у Google, у них там просто заключаешь текст страницы между index типа <index>тут мой замечательный текст</index> и он нормально релевантные объявления показывает на любой странице. Хотелось бы нечто подобное сделать и для Adsense, чтобы показ рекламных объявлений не зависел от того доступна страница для робота поисковой системы или нет.

M
На сайте с 14.09.2008
Offline
83
#797
Independence:
непонятно, какое отношение мой robots.txt имеет к заблокированной странице Яндекса.

Имеется ввиду не Ваш robots.txt а заблокированной страницы.

Independence:
А вопрос тут такой, начисляет ли Гугл бабло за клики на таких заблокированных страницах?

Не начисляет.

Independence:
Можно ли как-то сделать и как, чтобы эти страницы не попали в индекс поисковой системы Google, но при этом, чтобы Adsense их нормально сканировал и там бы показывалась нормальная реклама.

Разрешите доступ роботу Adsense.

Чтобы предотвратить сканирование страниц вашего сайта, но сохранить отображение объявлений AdSense на этих страницах, запретите доступ всех роботов, кроме Mediapartners-Google. Это предотвращает появление страниц в результатах поиска, позволяя роботу Mediapartners-Google анализировать страницы, чтобы определить, какие объявления нужно показывать. Робот Mediapartners-Google имеет отдельный доступ к страницам, независимый от других агентов Google. Рассмотрим пример.
User-agent: *
Disallow: /

User-agent: MediaPartners-Google
Allow: /

http://www.google.com/support/webmasters/bin/answer.py?hl=ru&answer=156449

Independence
На сайте с 29.10.2005
Offline
428
#798

megachip, а какой вариант лучше:

User-agent: MediaPartners-Google

Allow: /

или

User-agent: MediaPartners-Google

Allow: /cgi-bin/

?

M
На сайте с 14.09.2008
Offline
83
#799
Independence:
megachip, а какой вариант лучше:

User-agent: MediaPartners-Google
Allow: /

Думаю первый вариант.

87793
На сайте с 12.09.2009
Offline
661
#800
Independence:
У меня в robots.txt действительно заблокировано для роботов поисковых систем чтение старых сообщений форума (которые выдаются через cgi-скрипты, закрыта полностью одна из cgi-папок и скрипты оттуда). При этом текущие сообщения доступны как через html (у них есть короткие html-адреса для удобства пользователей), также их их можно посмотреть через адрес, где есть cgi (не через html-адреса), но такие адреса более длинные.

Вопрос такой имею... А зачем было блокировать роботам поисковых систем чтение старых сообщений форума?

Наше дело правое - не мешать левому!

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий