- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

VK приобрела 70% в структуре компании-разработчика red_mad_robot
Которая участвовала в создании RuStore
Оксана Мамчуева

Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
Сегодня пришел ответ от Adsense
Здравствуйте,
Благодарю Вас за сообщение.
Для защиты брендов рекламодателей мы ужесточили ограничения в отношении ставок в запросах объявлений с URL-адресов, не просканированных поисковым роботом. Изменение реализовано в сервисах AdWords и DoubleClick Bid Manager, примерно с середины декабря. Оно призвано снизить риск показа объявлений на страницах, где реклама нежелательна.
Ваш аккаунт Ad Exchange или AdSense отправляет значительное число запросов объявлений с непросканированных URL. Вот наиболее вероятные причины этой проблемы:
В URL ваших страниц содержатся сложные параметры или закодированные строки, уникальные для каждого посетителя, что затрудняет сканирование.
На ваших страницах есть новый контент, который не был просканирован на момент отправки запросов объявлений. В этом случае ошибка будет устранена через короткое время, так как страницы будут просканированы вскоре после первого запроса.
Вы вручную реализовали отправку запросов объявлений, и в этих запросах содержится URL неправильного формата.
Вы отправляете URL фрейма iframe, в котором содержится объявление, а не URL страницы с контентом, где содержится iframe. Эта ошибка чаще возникает у крупных издателей.
Для ваших страниц установлено ограничение на периодичность сканирования, поэтому поисковый робот отклоняет наши запросы на сканирование.
Чтобы данное изменение не повлияло на ваш доход, рекомендуем соблюдать перечисленные ниже рекомендации. Они помогут обеспечить правильное сканирование ваших URL.
вот дополнительная информация:
Робот AdSense
Как исправить ошибки робота AdSense
Как разместить объявления на страницах, защищенных паролем
Как разрешить роботу индексировать сайт с помощью файла robots.txt
Все то же самое, что мы здесь выяснили сами:)
Остался вопрос - срок жизни кеша.
Кто работает с аккаунтом адвордс, есть в аккаунте настройка BrandSafety? Если нет, то можете заслать запрос на добавление такой настройки, и чтоб по умолчанию была выключена?) Сослаться можно на рост стоимости размещения из-за сокращения доступных рекламных мест.
Кто работает с аккаунтом адвордс, есть в аккаунте настройка BrandSafety? Если нет, то можете заслать запрос на добавление такой настройки, и чтоб по умолчанию была выключена?) Сослаться можно на рост стоимости размещения из-за сокращения доступных рекламных мест.
Один/десять/сто запросов ничего не решит.
Остался вопрос - срок жизни кеша.
На, что он влияет?
0 запросов еще хуже. С меня даже 1 нет, мне как-то неуместно слать такой запрос, т.к. расход в адвордсе нулевой за последние 5+ лет.
https://support.google.com/adsense/answer/99376?hl=ru
Отчет робота обновляется еженедельно.
Сканирование осуществляется автоматически; мы не принимаем запросы на более частое сканирование.
На, что он влияет?
На минимально потребную посещаемость страницы для появления там объяв. Если кэш чистится каждые 2 недели, а посетители бывают раз в месяц, то на такой странице объяв не появится никогда.
Больше всего меня лично беспокоит вопрос: допустим, все так и есть. Например, на сайте 100 000 страниц. Каждый день его посещает 1000 посетителей. Это значит, что с каждым днём количество страниц, которые не обошёл гуглобот, будет уменьшаться. Несложно представить, что за 3-4 недели около 30% страниц снова должны отображать рекламу. Это, в свою очередь, означает, что доход и прочие показатели должны постепенно возвращаться к начальным (до 18 декабря).
А теперь, внимание, вопрос: хоть кто-нибудь замечает тенденцию к восстановлению доходов?
---------- Добавлено 16.01.2018 в 22:35 ----------
hoboune, объясните, зачем нужно чистить кэш, если он как раз и предназначен для того, чтобы индексировать страницы и не обходить их по миллиону раз?
На этом же и построен сам принцип поисковой системы - она собирает всю информацию и хранит у себя, индексируя данные для поиска.
---------- Добавлено 16.01.2018 в 22:38 ----------
fullchaos, это лишь означает, что индекс рекламного бота обновляется раз в неделю.
Несложно представить, что за 3-4 недели около 30% страниц снова должны отображать рекламу. Это, в свою очередь, означает, что доход и прочие показатели должны постепенно возвращаться к начальным (до 18 декабря).
А теперь, внимание, вопрос: хоть кто-нибудь замечает тенденцию к восстановлению доходов?
Нет, у меня, к примеру, продолжение снижения. Хуже того, приняты меры к дополнительному обходу сайта, что возбуждает бота, но не прибавляет профита.
Ситуация напоминает работу поисковой системы - бот может нагибать сервак, индекс тоже полон, а трафика кот наплакал.