лол... Про мобайл фест не слышали походу детально)
С чего вы взяли что гугл вас не перевел на него?
В новой панели вебмастера посмотрите ботов обслуживающих эту страницу для десктопа и мобайла.
Смотри тут: Проверка URL -> Покрытие -> Робот, выполнивший сканирование
Зачем изобретать велосипед? Зачем рисковать и что-то менять в контенте для гугла?
Сделайте "правильный" клоакинг и подгружайте нужный контент для нужного поисковика.
Главное правило - отдавать пользователю такой же контент как поисковому боту.
Можно с контентом для пользователей не заморачиваться - Яшка баран, не пропалит. С гуглом сложнее, слишком умный и жалобы от конкурентов любит.
Суть в чем?
Имеем главную и два текста для нее. Для бота Яндекса отдаем Вариант текста 1, отслеживаем по заголовкам его ботов и все, но важно отслеживать и реффер перехода и если переход с поиска Яндекса, то пользователю отдать тот же первый вариант текста что и для его бота.
То же самое и с гуглом. Отслеживаем ботов и даем ему скушать Вариант текста 2, так же отслеживаем для пользователей реффер и если с поиска гугла, то пользователю отдаем этот же второй вариант текста.
нет. да и не работает он нормально уже и это явно видно если у вас большой список доменов, а в новой панели его вообще нет.
ставьте 301 и удачи.
а вообще зачем новый домен? склейка дольше между доменами второго уровня, с поддоменами же быстрей.
кидаем сайт сразу на sub1.site.ru и понеслась sub1.site.ru ->sub2.site.ru->sub3.site.ru
ага... прогать мы конечно не умеем😂
уберите
Disallow: /*attachment
либо уберите в sitemap все сслыки собержащие в урле attachment
Вы перечитайте, поймите суть проблемы.
И насчет сообщений в консоли - все на что ругается в консоли... Все имеет значение. Забивать точно не стоит.
Часто просто мы не сталкиваемся с не типичными проблемами где логики вообще нет.
Вот пример. Живет сайтик, была когда-то у него рубрика. Ну решили мы что нам она не нужна. Грохаем ее и естественно у нас все те страницы что были в рубрике теперь 404. Ну нет их больше же. Логично. Сайт живет, все норм. И скорее всего не ощутит ни каких проблем.
Но решили домен поменять, ну обычное дело, ничего криминального, клеим. УПС... На старый раздел было много ссылок из другого раздела и третьего раздела да и еще внешние ссылки имеются на удаленный раздел и попрежнему прекрасно ссылаются на него и гугл это видит.
Оформлено все по уму 404 как полагается, на ней все рекомендации гугла учтены, все как по книжке. Ну нет теперь у нас этого документа, а тот документ что ссылается говорит что было когда-то или думает что есть.
Нет.. Гугл теперь считает что более 20% ссылок битых значит - сайт фильтруем.
И тут начинается бред. Перечитываете хелп все что находите это смена кода ответа сервера с 404 на 410, а сама страница остается такой же.
Ну что? поможет? Если бы, на одном сайте год был фильтр. Как? Блин, за что? Где логика? Почему не убирает фильтр?
Не мучайтесь... 301 с битых ставьте на главную и пропингуйте гуглом. 7-10 дней и фильтра нет.
Что-то еще не нравиться? Ваши проблемы..
Вот он индексирует... Это не его проблема, это уже моя проблема. Он Титлы присвоил уже таким страницам. Типичный Титл который использует в ротации для сайта сейчас. А вот это уже серьезно.
Оййй.. Вы прям сильно ошибаетесь. В корень не верно. Все это он считает и высчитывает и в первую очередь не столь для поведенческих для серча, сколь для профилирования юзера в своей RTB, а это уж куда более сложный процесс чем какие-то поведенчиские на сайте. Блок инфы для поведенческих это вовсе второстепенный продукт.
И посчитать он и не такое в состоянии. Апдейт на лету он же в состоянии делать. Вы воспринимаете пересчет как единый механизм, а это не так.
Как съесть слона? - По кусочкам.
В общем, давайте не будем спорить. Вы не правы. Вам стоит изучить мат часть по всем основным продуктам гугла и офигеть от того что он считает, сколько хранит и для чего использует.
P.S.: есть куча технологических примеров которые на лету в онлайне высчитывают в куче параметров(от 1000 порой) сверяют с базой и выдают результат, далее в базу пишут все что могут со своих метрик со счетчиков, докупают и интегрируют к себе данные о вас в других источниках. И все это молниностно. И до гугла этим компаниям.. Пффф.
Как вариант это системы проверки и оценки трафика)
работа с содержанием конкретных страниц - текст, код, блоки и т.д.
А что тут рассказывать? Пока нечего, я же сказал что результат не полноценный.
По тем группам страниц что велась работа есть рост, они в топе почти все уже.
Но результаты противоречивы и возможно не связанны вообще с этими действиями, так как если анализировать хотя бы ТОП-20 получается бред. Но это не точно, ТОП сейчас относительный
А почему есть теория что не связан рост с этими действиями? Потому что последнии пол года на этих страницах можно было фактически удалить контент и это на позициях не сказывалось.
Провожу еще на одном сайте подобные работы. Посмотрим через дней 10 результат. Если все гуд - отпишу что и как делать.---------- Добавлено 31.03.2018 в 21:15 ----------
Не засоряйте себе голову БигДатой. Для каждого сегмента аудитории, тематики, типа сайтов есть свои усредненные данные на основе которых идет исчисление.
Для примера можно уменьшить кол просмотров страниц и увеличить количество целевых действий(звонки, заявки).
И ждите рост за поведенческие, месяца через 4. Но это опять-таки не во всех тематиках и не для всех типов запросов.
К чему я? Он все данные собирает. Все что можно. И хромиум их дает значительно больше чем ГА.
Вот такой Гугл был, есть и будет. Жадный до инфы.
Никак. То-есть, вообще ни как.
ну даже объяснять не хочу и спорить. не весь рынок, ну так не весь.
Ай ладно... Пригорает прям... не а кто есть еще??? не нужно перечислять, я знаю. Что они такое и что такое хромиум?
Данные за 2016, даже дальше лень было искать. Этого и так вам достаточно.
И на всякий вот Вам скрин... Мало? гоу в ГА и смотрите реально топ браузеров в моб версиях.
Реально кто не подконтролен гуглу и дает хоть какой-то объем - Сафари.
сорри, ну вы че несете? ну какая разница есть аналитика или нет?
ему данных по хромиуму хватит.
по сабжу...
до 14 числа на нескольких проектах рост стабильный, поэтапный в течении года. проектам более 3х лет.
основной занимал по всему сем ядру ТОП-3, остальные два ТОП 10-20
Свалились все 14го, в целом выдача по сем ядру стала лучше. Неделю назад основной вернулся в ТОП-3 и моментально траф пошел, но счастье длилось не долго - всего сутки и в прошлую субботу так же улетел. Выдача тоже сильно поменялась - стала хуже, просто бред ну и явно такой не останется, ждем еще скачков.
в целом что вижу общего - улетели не все страницы из топа, по ГСК и с помощью поиска по сайту видно(там прям четкие тенденции), что применены какие-то толи санкции к этим страницам, толи что-то по ним не досчиталось просто.
судя по результатам тестов на одном проекте - санкции временные(дней 10 назад изменения внес на группу страниц), но результат не полноценный. нужно еще затестить.
сайты СДЛ.