- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

VK приобрела 70% в структуре компании-разработчика red_mad_robot
Которая участвовала в создании RuStore
Оксана Мамчуева
vitzer, /ru/forum/comment/15408691
читайте тему...вы же сами "спасибо" под моим постом поставили.
P.S. у меня за прошедшие сутки блок #1 упал еще сильнее, блок #2 подрос.
Склонен думать, что все же есть (или был) какой-то баг с показами...
Возможно, мои результаты близки к рассуждениям некоторых вебмастеров о баге показа (пропадании) рекламы на страницах с низкой посещаемостью. Либо работал какой-то новый алгоритм. Но это точно никакой не фильтр!
Истина где-то рядом!
Сегодня увидел еще одно подтверждение теории зависимости показа рекламы от частоты просмотра страниц.
В Search Console появились новые дубли. Полез устранять. Сначала вывел страницы-дубли (по ним нет трафика). В новой вкладке открыл страницу с нормальным URL. И случайно обратил внимание, что на странице с дублем нет никакой рекламы гугла, а на нормальной все в полном объеме. Обновил страницу с неправильным URL - так и осталось пусто. Мне кажется, такого точно никогда раньше не было.
Беру первую попавшуюся страницу сайта с нормальным URL - реклама вся на месте. Ломаю структуру URL (убираю вложенность каталога), обновляю два раза - во всех случаях страница пустая. Дописываю URL (возвращаю вложенность), и реклама вновь показывается! Новый алгоритм?
С другой стороны, ввел url с utm меткой из шаблона Адвордс по которому не было переходов уже наверное месяц, а там реклама есть. Понятно, что ничего не понятно!
---------- Добавлено 29.12.2017 в 02:07 ----------
vitzer, /ru/forum/comment/15408691
читайте тему...вы же сами "спасибо" под моим постом поставили.
P.S. у меня за прошедшие сутки блок #1 упал еще сильнее, блок #2 подрос.
Сейчас названия на ангельцком (не по-русски) потому и уточняю. Да и в том посте больше про CTR. А так проверил, у меня глобальных изменений соотношения (в процентах) нет.
Странно, что у меня, как и у многих - блоки пропадают, но в статистике нет ничего, за что можно было бы зацепиться. да и доход упал раньше - еще 28 ноября. Может просто это не моя тема?
У меня тоже пошел возврат кол-ва показов. До прежних значений еще не вернулось но уже рост в два раза. На мобильном тоже показы подрастают.
поспешил с выводами, по суткам возврат гораздо скромнее. А жаль(
Сайты в тысячи хостов, так что показательно все.
Восстановил у себя частично показы за клики следующим способом. Но сразу говорю, случай частный, пойдет не всем.
Исходные данные.
Баннеры показывались через раз не на всех страницах, а только на тех, которые Адсенс считал для себя новыми, еще никем не посещенными. Хотя правильней сказать: стал считать для себя новыми с 18 декабря, т.к. самим страницам уже лет 10.
Не показываются именно баннеры Адвордса за клики и именно на этих "новых" страницах. Другие страницы, даже на этом же самом сайте просадка показов никак не затронула - т.е. это никакой не фильтр на сайт или на конкретные url.
"Новыми", с точки зрения Адсенса, оказалось два типа страниц:
1) В адресе которых есть get параметры уникальные для конкретного пользователя, и линк на которых формируется непосредственно для пользователя и его нет заранее на других страницах, т.е. он недоступен паукам обходчикам. Т.е. сюда не входят страницы с пагинацией, т.к. линки на последующие страницы уже есть на сайте, и паук их может обойти. А вот если юзер после посещения страницы переходит на другую утаскивая за собой в get параметрах, допустим: номер сессии, номер текущего заказа товара, географические координаты, "флажок" для учета статистики - пиши пропало, теперь страница с такими добавочными параметрами будет "новая" и рекламы на ней не будет.
В результате пришлось полностью отказаться от get запросов. Теперь переход между страницами с дополнительными параметрами только через post формы. Ну и в некоторых местах, где нужен обычный линк на странице, чтобы его могли обойти пауки поисковых систем, параметры закидываю в кукис пользователя, и при переходе на новую страницу из него же эти параметры и считываю.
Еще, в порядке бреда, зашел в Search Console - Сайт - Сканирование - Параметры URL и убрал там влияние этих дополнительных параметров на уникальность документа.
2) Страницы которые значительно изменяют свой вид под конкретного пользователя. Тут может быть и подстройка в зависимости от региона юзера, по данным с geoip, могут быть и просто рандомные блоки контента. То, что на таких слишком динамичных страницах "непоказов" больше - только личные ощущения по результатам тестов, однозначно утверждать не берусь. Но у себя уменьшил немного разнообразие изменений контента.
Судя по всему, исправлять такой баг будут долго, т.к. затрагивает он ну, наверное, процентов 1-5 посещаемых сайтов со сложной сервисной структурой, т.н. сайты-приложения, или совсем малопосещаемые сайты с большим числом контента. Вот что делать с последними, пока непонятно.
Еще, в порядке бреда, зашел в Search Console - Сайт - Сканирование - Параметры URL и убрал там влияние этих дополнительных параметров на уникальность документа.
Кстати, а не лучше ли указать боту, что те или иные параметры URL изменяют содержание страницы/сортируют страницы? Т.е. как бы говорим, что к примеру page2 - это другая страница с новым содержание и ведь так и есть.
А например параметр q - (параметр, по которому происходит поиск по сайту) для страниц поиска я обозначил как - "Сортирует - отбирает контент, соответствующий параметру. Например, показывает список товаров, отсортированных по названию, бренду или цене" (скрин прикрепил). По-моему так правильно.
А параметры page2, page3 и т.д. - выставил как разбивающие на страницы, Ведь всё правильно и здесь
Кто, что думает, может поставить напротив всех этих параметров по-умолчанию и ничего не трогать? Хотя раньше у меня параметры были выставлены свои и всё было норм.
Декабрь жесть, худший месяц в году. Вчера опять доход упал.
Такое ещё предположение, что обнулилась база предыдущих проходов мегаиндех бота. Предположим изменился алгоритм и требуется повторная переиндексация. Пока он снова все страницы не переиндексирует, доход не восстановится. Особенно это касается многостраничных сайтов, собирающих траф по низкочастотникам. Как решение, пройтись сканером, эмалирующим браузер по всем страницам.
Декабрь жесть, худший месяц в году. Вчера опять доход упал.
Такое ещё предположение, что обнулилась база предыдущих проходов мегаиндех бота. Предположим изменился алгоритм и требуется повторная переиндексация. Пока он снова все страницы не переиндексирует, доход не восстановится. Особенно это касается многостраничных сайтов, собирающих траф по низкочастотникам. Как решение, пройтись сканером, эмалирующим браузер по всем страницам.
Такое предположение было бы верно, если бы раньше, на новых сайтах/страницах реклама не показывалась. Но ведь это было не так - реклама показывалась на всех страницах вне зависимости - прошел медиабот сканирование или нет.
При том (как уже было описано) - сейчас даже после обхода медиабота и начала показа рекламы реклама подсовывается самая дешевая. Дорогая реклама появляется в случае, если страница частопосещаема.
Такое предположение было бы верно, если бы раньше, на новых сайтах/страницах реклама не показывалась. Но ведь это было не так - реклама показывалась на всех страницах вне зависимости - прошел медиабот сканирование или нет.
Так алгоритм мог смениться и уже не такой, как был раньше
Как решение, пройтись сканером, эмалирующим браузер по всем страницам.
Cделать это можно, только вот у меня к примеру на трех сайта, каждый день новые страницы появляются. И не мало.
И если человек заходит в определенную категорию, они идут как новые и актуальные...и то что они еще не проиндексированы, раньше не мешало и реклама показывалась.
Это каждый день обходить сканером получается?)
На другом сайте: по маршрутам. Там пользователь сам создает новые страницы. Ну поиск маршрута от Урюпинска, до Магадана к примеру. Ладно если до него кто то уже создал, популярные давно в базе. Но как я вижу, что только не забивают...."село - поселок - деревня".
---------- Добавлено 29.12.2017 в 13:00 ----------
MetadonPerec, в общем я мало что понял, кроме общего смысла, так как в этом как раз не разбираюсь...
У меня движки самописы, обращаться к тому кто их написал не вариант...он давно сгинул и на вопросы не отвечает, поддержки нет, да при этом еще и буржуй).
У меня урлы с таким параметром генерируются: id=7578222174855201
То есть, каждый день, появляется пару-тройку десятков новых страниц. И так как эти страницы свежие и актуальные, юзер их видит первыми в категории. Можно конечно самому покопаться в коде (хотя не сильно и разбираюсь) и найти, что бы подсовывались старые...
---------- Добавлено 29.12.2017 в 13:04 ----------
В общем, большое у меня подозрение, что выход из всего этого и пути решения, нам самим придется искать. И гугл фиг что сделает, слишком много времени прошло. И от них одно молчание или ответы: сам дурак.
Cделать это можно, только вот у меня к примеру на трех сайта, каждый день новые страницы появляются. И не мало.
И если человек заходит в определенную категорию, они идут как новые и актуальные...и то что они еще не проиндексированы, раньше не мешало и реклама показывалась.
Это каждый день обходить сканером получается?)
На другом сайте: по маршрутам. Там пользователь сам создает новые страницы. Ну поиск маршрута от Урюпинска, до Магадана к примеру. Ладно если до него кто то уже создал, популярные давно в базе. Но как я вижу, что только не забивают...."село - поселок - деревня".
---------- Добавлено 29.12.2017 в 13:00 ----------
MetadonPerec, в общем я мало что понял, кроме общего смысла, так как в этом как раз не разбираюсь...
У меня движки самописы, обращаться к тому кто их написал не вариант...он давно сгинул и на вопросы не отвечает, поддержки нет, да при этом еще и буржуй).
У меня урлы с таким параметром генерируются: id=7578222174855201
То есть, каждый день, появляется пару-тройку десятков новых страниц. И так как эти страницы свежие и актуальные, юзер их видит первыми в категории. Можно конечно самому покопаться в коде (хотя не сильно и разбираюсь) и найти, что бы подсовывались старые...
---------- Добавлено 29.12.2017 в 13:04 ----------
В общем, большое у меня подозрение, что выход из всего этого и пути решения, нам самим придется искать. И гугл фиг что сделает, слишком много времени прошло. И от них одно молчание или ответы: сам дурак.
Эти Id обязательно в url передавать? Наверно можно через post параметры, чтобы url не менялся. И править в движке наверно не много, можно нанять программера, если ситуация в ближайшее время не изменится