alexdosson

Рейтинг
119
Регистрация
30.06.2013

А те сайты, которые уже добавлены были, они являются авторизованными? Как это можно проверить?

Аргон-17:
а вот тут , уточните, где этот сайт появился:
просто в списке сайтов или в списке разрешённых сайтов?😕

А где это посмотреть? Я вижу тут

Performance reports -> Common Reports - Sites

---------- Добавлено 30.08.2015 в 21:21 ----------

87793:
А ему надо было добавлять сайт из-под Вас? 😕
Достаточно было у себя вставить Ваш код Адсенса :).

А зачем это человеку? Какие последствия могут быть для меня?

---------- Добавлено 30.08.2015 в 21:22 ----------

Alex2Fast:
Аналогично было в этом месяце.
Но в настройках у меня стоит запрет на учет дохода с неавторизированных сайтов + я добавил его в блэклист, чего и вам советую.

Ой, а подскажите пожалуйста как это сделать?

awasome:
В гугл вбил и посмотрел. Не взлом, там вроде та же самая схема, что с рефспамом в метрике.

Но там речь о яндекс метрике и Google Analytics, это все счетчики.

А я про адсенс говорю. Каким образом кто-то из под меня добавил сайт? Может написать в суппорт адсенса и рассказать про ситуацию? Не хочу потом какого-то гемора поиметь

awasome:
Рефспам, этот сайт у многих засветился.

А где-то можно почитать про это ? И как возможно , что сайт попал в аккаунт . Взлом ?

---------- Добавлено 30.08.2015 в 17:24 ----------

Xammer2000:
У меня yandex висит, странно все это

То есть похожий сайт у вас в рся статистике ? Какой сайт именно ?

Optismile:
alexdosson, попробуйте поменять директиву Allow: / на Disallow: - они равнозначны
и проверьте ваш robots.txt в webmaster tools. Потом отпишитесь по результату.
P.s.: Disllow: без слеша !

Хорошо спасибо

---------- Добавлено 30.08.2015 в 12:26 ----------

Futuris:
Ваша директив также должна работать - это можно проверить воспользовавшись сервисом проверки robots.txt в Яндексе https://webmaster.yandex.ru/robots.xml Просто вставьте ваш домен и нажмите "Загрузить robots.txt с сайта" затем внизу добавьте URL любой страницы и увидите. Если покажет зеленым - значит страница разрешена для индексации. Если красным - значит запрещена и написано почему.
Но ваш robots.txt неудобен т.к. вы сразу директивой Allow: / разрешаете роботу индексировать все, а это неправильно. Есть еще куча служебных каталогов, файлы ядра и т..д., которые индексировать не нужно.

Вот мой robots.txt, первая директива Disallow без слэша, и поэтому не является запретительной. Но зато это дает мне возможность избирательно открывать необходимые для индексации каталоги директивой Allow


User-agent: *

Disallow:
Host: www.mysite.ru
Disallow: /wp-login.php
Disallow: /wp-register.php
Disallow: /cgi-bin/
Disallow: /wp-admin/
Disallow: /wp-includes/
Disallow: /wp-content/
Disallow: /spektr/
Allow: /wp-content/uploads
Allow: /wp-content/themes/mysite
Allow: /wp-content/plugins
Disallow: /trackback
Disallow: */trackback
Disallow: */*/trackback
Disallow: */*/feed
Disallow: */feed
Disallow: /*?*
Disallow: /tag
Disallow: /category/
Disallow: /author/
Disallow: /20*/*
Disallow: /page/*
Disallow: */comment-page-*
Disallow: /pervyj-kommentarij/


В итоге - не могу сказать точно почему не работает ваш вариант. Но ручаюсь на 100% что мой сработает. Т.к. я уже не один десяток сайтом выпустил с ним. Вы можете также убедиться в его работоспособности, если подставите этот вариант в ссылку приведенную выше. Плюс этого сервиса в стом, что не нужно каждый раз делать изменения в реальном файле robots.txt, просто меняя его на этой странице вы видите как будет "в реале" работать та или иная директива. А затем выбрав нужный вариант - пропишите его в файле.

P.S. Мой файл для сайтов на WP, соответственно у вас могут быть другие запрещенные и разрешенные каталоги. Но суть от этого не меняется.

Спасибо, попробую тоже

Optismile:
вы читайте внимательно его сообщение в контексте чего файл является корректным. Я специально привёл похожий пример из того же документа. Где файл также корректен. Улавливаете смысл?

Блин, не совсем... Я не понимаю, почему он написал, что сайт закрыт к индексации, ведь судя по тому, что я прочитал - это же не так...


User-agent: *
Allow: /
Host: site.name
Sitemap: http://site.name/sitemap.xml

В общем, я могу просто убрать robots.txt совсем? Хуже ведь не будет по идее. Ничего закрывать от индексации мне по идее не нужно

Ну вот товарищ Futuris снинул ссылочку, где действительно написано, что


#Пример корректно составленного robots.txt, при обработке
#которого директива Host учитывается

User-Agent: *
Disallow:
Host: www.myhost.ru

Подождите, в гугл суппорте прочитал, что


Файл robots.txt нужен не всегда.
Файл robots.txt нужен только в том случае, если на вашем сайте есть содержание, которое не следует включать в индекс поисковых систем. Если вы хотите, чтобы поисковые системы индексировали все страницы вашего сайта, то вам не нужен файл robots.txt, даже пустой. Если файл robots.txt отсутствует, сервер возвратит код статуса 404 в ответ на запрос робота Googlebot, и процесс сканирования сайта будет продолжен. Это не вызовет никаких проблем.

Может тогда лучше вообще его не создавать?

Futuris:
У вас сайт закрыт для индексации.
Сделайте так:

User-agent: *

Disallow:
Host: site.name

Простите, как это закрыт? Посмотрите, пожалуйста, на этот топик, я спрашивал

/ru/forum/907584

Это мне неправильно написали что ли?

Так все-таки можно просто слелать страницу термс и там прописать , что куки используются ? Не хочется вешать это г на весь сайт

Скажите, данная новость касается вебмастеров или рекламодателей ? Не особо понял . И что всё же нужно со своей стороны делать?

http://www.sayt-m.su/news/novie-pravila-google-adsense/

Всего: 402