Елистратов

Елистратов
Рейтинг
229
Регистрация
21.04.2007

лол... Про мобайл фест не слышали походу детально)

С чего вы взяли что гугл вас не перевел на него?

В новой панели вебмастера посмотрите ботов обслуживающих эту страницу для десктопа и мобайла.

Смотри тут: Проверка URL -> Покрытие -> Робот, выполнивший сканирование

Зачем изобретать велосипед? Зачем рисковать и что-то менять в контенте для гугла?

Stasmotion:

Вот это не понял

Сделайте "правильный" клоакинг и подгружайте нужный контент для нужного поисковика.

Главное правило - отдавать пользователю такой же контент как поисковому боту.

Можно с контентом для пользователей не заморачиваться - Яшка баран, не пропалит. С гуглом сложнее, слишком умный и жалобы от конкурентов любит.

Суть в чем?

Имеем главную и два текста для нее. Для бота Яндекса отдаем Вариант текста 1, отслеживаем по заголовкам его ботов и все, но важно отслеживать и реффер перехода и если переход с поиска Яндекса, то пользователю отдать тот же первый вариант текста что и для его бота.

То же самое и с гуглом. Отслеживаем ботов и даем ему скушать Вариант текста 2, так же отслеживаем для пользователей реффер и если с поиска гугла, то пользователю отдаем этот же второй вариант текста.

gostto:
Тоесть в панелях переезд делать не обязательно?

нет. да и не работает он нормально уже и это явно видно если у вас большой список доменов, а в новой панели его вообще нет.

ставьте 301 и удачи.

а вообще зачем новый домен? склейка дольше между доменами второго уровня, с поддоменами же быстрей.

кидаем сайт сразу на sub1.site.ru и понеслась sub1.site.ru ->sub2.site.ru->sub3.site.ru

Gotthard:

Это все басни для тех, кто подвизался на SEO и программирования не знал никогда.

ага... прогать мы конечно не умеем😂

Bill_geits:
Принцип ссылок приблизительно такой https://site.ru/published/publicdata/KAMPFERKR/attachments/SC/images/kanat_2.jpg

уберите

Disallow: /*attachment

либо уберите в sitemap все сслыки собержащие в урле attachment

XPraptor:
Мне на нескольких доменах приходит эта чушь в новой консоли.
Она ни на что не влияет, они балуются видимо там.
Вот я не пойму гугла с этими игрульками, для чего мне эта чушь нужна? Ну заблочена страница в роботсе, ну стоит у нее noindex в самом коде - раз ты её индексируешь все-равно, я то тут при чем? Зачем мне это овно-сообщение в консоли о ваших кривых руках из **пы - гугл удивляет в последнее время (вернее уровень его разрабов новых).

Вы перечитайте, поймите суть проблемы.

И насчет сообщений в консоли - все на что ругается в консоли... Все имеет значение. Забивать точно не стоит.

Часто просто мы не сталкиваемся с не типичными проблемами где логики вообще нет.

Вот пример. Живет сайтик, была когда-то у него рубрика. Ну решили мы что нам она не нужна. Грохаем ее и естественно у нас все те страницы что были в рубрике теперь 404. Ну нет их больше же. Логично. Сайт живет, все норм. И скорее всего не ощутит ни каких проблем.

Но решили домен поменять, ну обычное дело, ничего криминального, клеим. УПС... На старый раздел было много ссылок из другого раздела и третьего раздела да и еще внешние ссылки имеются на удаленный раздел и попрежнему прекрасно ссылаются на него и гугл это видит.

Оформлено все по уму 404 как полагается, на ней все рекомендации гугла учтены, все как по книжке. Ну нет теперь у нас этого документа, а тот документ что ссылается говорит что было когда-то или думает что есть.

Нет.. Гугл теперь считает что более 20% ссылок битых значит - сайт фильтруем.

И тут начинается бред. Перечитываете хелп все что находите это смена кода ответа сервера с 404 на 410, а сама страница остается такой же.

Ну что? поможет? Если бы, на одном сайте год был фильтр. Как? Блин, за что? Где логика? Почему не убирает фильтр?

Не мучайтесь... 301 с битых ставьте на главную и пропингуйте гуглом. 7-10 дней и фильтра нет.

Что-то еще не нравиться? Ваши проблемы..

Вот он индексирует... Это не его проблема, это уже моя проблема. Он Титлы присвоил уже таким страницам. Типичный Титл который использует в ротации для сайта сейчас. А вот это уже серьезно.

Gotthard:
Да, на его месте собирать все что можно - нормальное поведение. Что успевает обработать - другой вопрос.
Насчет блокировать передачу чего-то из Хрома - это не никак, это абсолютно просто. Дизассемблинг - тяжкий труд, но не безнадежный. Я поясню свой вопрос:

Дело в том, что сбор и анализ поведенческих факторов требует огромной вычислительной мощности, которой у гугла и в помине нет. Даже изредка это делать крайне сложно, если принимать к анализу чересчур много факторов. Умножим на кол-во сайтов, которое растет не хуже роста вычислительной мощности.
Есть предположение, что такой анализ проводится весьма редко и по весьма ограниченному числу факторов (время на странице, еще не более десятка показателей). Поэтому SERP нужно строить исходя из данных не хрома (которые теоретически и подделать можно), а из анализа содержимого сайта. И на это указывает то, что гугл задолбал рассказам про контент.
Далее, чем дальше, тем сложнее будет гуглу проводить какой-то анализ ПФ. Он будет все больше полагаться на контент.
Это очень важно знать, если у вас сайт не на год-другой ради пары рекламных блоков, а от него во многом зависит успех компании на многие годы.
Я читаю эту ветку с одной целью - понять, в каком направлении гугл меняет анализ.
Любая информация очень ценна.

Оййй.. Вы прям сильно ошибаетесь. В корень не верно. Все это он считает и высчитывает и в первую очередь не столь для поведенческих для серча, сколь для профилирования юзера в своей RTB, а это уж куда более сложный процесс чем какие-то поведенчиские на сайте. Блок инфы для поведенческих это вовсе второстепенный продукт.

И посчитать он и не такое в состоянии. Апдейт на лету он же в состоянии делать. Вы воспринимаете пересчет как единый механизм, а это не так.

Как съесть слона? - По кусочкам.

В общем, давайте не будем спорить. Вы не правы. Вам стоит изучить мат часть по всем основным продуктам гугла и офигеть от того что он считает, сколько хранит и для чего использует.

P.S.: есть куча технологических примеров которые на лету в онлайне высчитывают в куче параметров(от 1000 порой) сверяют с базой и выдают результат, далее в базу пишут все что могут со своих метрик со счетчиков, докупают и интегрируют к себе данные о вас в других источниках. И все это молниностно. И до гугла этим компаниям.. Пффф.

Как вариант это системы проверки и оценки трафика)

Столбун:
какие изменения делали?

работа с содержанием конкретных страниц - текст, код, блоки и т.д.

Gotthard:
Можете поподробнее рассказать?

А что тут рассказывать? Пока нечего, я же сказал что результат не полноценный.

По тем группам страниц что велась работа есть рост, они в топе почти все уже.

Но результаты противоречивы и возможно не связанны вообще с этими действиями, так как если анализировать хотя бы ТОП-20 получается бред. Но это не точно, ТОП сейчас относительный

А почему есть теория что не связан рост с этими действиями? Потому что последнии пол года на этих страницах можно было фактически удалить контент и это на позициях не сказывалось.

Провожу еще на одном сайте подобные работы. Посмотрим через дней 10 результат. Если все гуд - отпишу что и как делать.

---------- Добавлено 31.03.2018 в 21:15 ----------

Gotthard:
Я спрашивал не ради спора. Когда тебе под полтинник, спорить уже нет желания, есть желание решить свои задачи.
Ясно, что Хром лидер и данные собирает. Вопрос в том, КАКИЕ, как он ИСПОЛЬЗУЕТ их. Не "в общем", а в подробностях. Мало ли, может быть, они у вас есть. Увы, но отследить это по пакетам не получается, там потонешь в тоннах информации.

Не засоряйте себе голову БигДатой. Для каждого сегмента аудитории, тематики, типа сайтов есть свои усредненные данные на основе которых идет исчисление.

Для примера можно уменьшить кол просмотров страниц и увеличить количество целевых действий(звонки, заявки).

И ждите рост за поведенческие, месяца через 4. Но это опять-таки не во всех тематиках и не для всех типов запросов.

К чему я? Он все данные собирает. Все что можно. И хромиум их дает значительно больше чем ГА.

Вот такой Гугл был, есть и будет. Жадный до инфы.

Gotthard:

И связанный вопрос - как блокировать выборочно передаваемую информацию.

Никак. То-есть, вообще ни как.

Gotthard:

Данные по Хромиуму - это хорошо, но это не весь рынок браузеров.

ну даже объяснять не хочу и спорить. не весь рынок, ну так не весь.

Ай ладно... Пригорает прям... не а кто есть еще??? не нужно перечислять, я знаю. Что они такое и что такое хромиум?

Данные за 2016, даже дальше лень было искать. Этого и так вам достаточно.

И на всякий вот Вам скрин... Мало? гоу в ГА и смотрите реально топ браузеров в моб версиях.

Реально кто не подконтролен гуглу и дает хоть какой-то объем - Сафари.

Chemudan:
Google Analytics у всех стоит, у кого упал траф? По определенному запросу, где мой сайт был в топ 3, сейчас ни у одного из топов нет аналитики.
Может гуглу поведение юзеров чем-то не понравилось и он порезал как раз тех, у кого стоит аналитика?
Мне на днях письмо от гугла приходило - в кратце: мы теперь будет использовать ваши аналитические данные для каких-то своих эксперимнтов

сорри, ну вы че несете? ну какая разница есть аналитика или нет?

ему данных по хромиуму хватит.

по сабжу...

до 14 числа на нескольких проектах рост стабильный, поэтапный в течении года. проектам более 3х лет.

основной занимал по всему сем ядру ТОП-3, остальные два ТОП 10-20

Свалились все 14го, в целом выдача по сем ядру стала лучше. Неделю назад основной вернулся в ТОП-3 и моментально траф пошел, но счастье длилось не долго - всего сутки и в прошлую субботу так же улетел. Выдача тоже сильно поменялась - стала хуже, просто бред ну и явно такой не останется, ждем еще скачков.

в целом что вижу общего - улетели не все страницы из топа, по ГСК и с помощью поиска по сайту видно(там прям четкие тенденции), что применены какие-то толи санкции к этим страницам, толи что-то по ним не досчиталось просто.

судя по результатам тестов на одном проекте - санкции временные(дней 10 назад изменения внес на группу страниц), но результат не полноценный. нужно еще затестить.

сайты СДЛ.

Всего: 2897