- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году 36,9% всех DDoS-атак пришлось на сферу финансов
А 24,9% – на сегмент электронной коммерции
Оксана Мамчуева
Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Тому же Яндексу ссылки могут быть даже и нафиг не нужны. Он просто посмотрит откуда и куда браузер переходил. )) А Гугл по всем JS шарится как у себя дома. Не думаю, что он тупее.
У себя скрываю обычным файлом /go.php?url=Ссылка. Но там 100% нужно делать белый список. Как минимум, закрывать это дело от индексации, проверять куки, проверять реферрер и отсеивать всякие нехорошие домены и слова.
Каким именно браузером 'на каком устройстве' / с каким разрешением монитора?
Например, браузером Chrome, что установлен у большинства серферов. На том устройстве, на которое он установлен. С тем разрешением, которое поддерживается системой пользователя.
Нужно ли мне сейчас говорить о том, что браузер Chrome и скрипты Google Analytics, являются оcновными поставщиками любой информации, которая интересна Гуглю? Он даже видит, как пользователь мышкой по экрану елозит, куда кликает, что открывает, где видео на паузу ставит, чтоб поссать или другой сайт в соседней вкладке открыть.
Вы когда в гуглеконсоле просите его лайф чек сайта сделать и он вам показывает, что там да как, делает скрины для десктопа и мобильных устройств. Как он эти скрины получит, на обработав страницу полностью, путем выполнения всех скриптов, рендера всех айфреймов и т.д.? Или он типа все это делает, чтобы вам приятно было, а себе он данные, полученные в процессе, вот вообще не оставляет и не анализирует их?
Вы с какой планеты к нам? :)
Например, браузером Chrome, что установлен у большинства серферов. На том устройстве, на которое он установлен. С тем разрешением, которое поддерживается системой пользователя
Ну вот те, кто додумался как это проверить - указывали конкретные цифирьки, а не абстрактное "у большинства"... а в связи с адаптивностью вёрстки и на экране может быть разное нечто.
А фантазии про "гугл видит как пользователь" спотыкаются ещё и о невозможность выполнения ботом тех действий, которые может выполнить ползатель, если содержимое страницы от них зависит... И об это споткнулись создатели бота-выполняющего-JS, и они не могут 'корректно ранжировать' такие страницы, а высказались о не лучшем пользовательском опыте.
Ещё кстати проверяли - какие плагины у 'браузера гугла'. В целом проверка затрагивала JS/CCS, но это же не все возможности браузера.
Гугл по всем JS шарится как у себя дома. Не думаю, что он тупее
Он не просто тупее, а бот, зависящий от намерений создателя... которому оказалось далеко не всё интересно... и осталась возможность пользоваться не только JS. Просто надо не думать или не думать, а проверять конкретно, и обнаруживается, что паства думает не туда / склонна к обожествлению, а у создателя бота проблем слишком много.
Ответ по Chrome: 67% на моих сайтах. Общемировая статистика доступна даже в википедии. Для анализа вашего сайта, гуглю не нужно, чтоб каждый пользователь посещал его с помощью Chrome. Ему и нескольких таких посещений достаточно.
Боту не надо выполнять функции сёрфера. Сёрфер свои функции и сам исправно выполняет. Браузеру остается только анализировать его действия и сливать их гуглю. Посмотрите, что записывает тот же вебвизор от яндекса, с его допотопными алгоритмами и технологиями. Гугль на голову выше, и кроме Chrome у него есть еще и целый Android в помощь..
Тому же Яндексу ссылки могут быть даже и нафиг не нужны. Он просто посмотрит откуда и куда браузер переходил. )) А Гугл по всем JS шарится как у себя дома. Не думаю, что он тупее.
У себя скрываю обычным файлом /go.php?url=Ссылка. Но там 100% нужно делать белый список. Как минимум, закрывать это дело от индексации, проверять куки, проверять реферрер и отсеивать всякие нехорошие домены и слова.
Посмотрите здесь
Посмотрите здесь
Да, прикольно. И реализовать не очень сложно. Но я переадресацией с 2007 года пользуюсь, если не с 2005. И нужно это было только для сайтов с продажей ссылок. Сейчас как-то заморачиваться не вижу особого смысла.
Браузеру остается только анализировать его действия
ИИ уже и у браузера тоже?
Гуглиодам незачем тратить +1000% ресурсов на выполнение ещё и JS, это просто не поможет в 10 раз правильнее ранжировать документы, а вот на датацентры потратиться пришлось бы конкретно / команде разработчиков вряд ли удалось бы убедить в этом менеджеров.
Зато маркетологам гугла достаточно просто не мешать пастве обожествлять великий гугл. И 87% вебмастеров этим ограничивается, таковы свойства паствы. Ещё 9% сомневающихся. Ну и мизерный % догадается чего и как проверить самим.
Ну посмотрел вчера на древних тестах, и без JS прятки остались, как и несколько лет назад, т.е. создателя 'браузера гуглебота' это просто не интересует (хотя вроде он обрабатывал то же самое, выполняемое через JS. например AJAX == JS + XML/XSLT, а поотдельности это не... поскольку просто нет смысла 'браузеру гугла' быть полноценным браузером).
ИИ уже и у браузера тоже?
Гуглиодам незачем тратить +1000% ресурсов на выполнение ещё и JS, это просто не поможет в 10 раз правильнее ранжировать документы, а вот на датацентры потратиться пришлось бы конкретно / команде разработчиков вряд ли удалось бы убедить в этом менеджеров.
Зато маркетологам гугла достаточно просто не мешать пастве обожествлять великий гугл. И 87% вебмастеров этим ограничивается, таковы свойства паствы. Ещё 9% сомневающихся. Ну и мизерный % догадается чего и как проверить самим.
Ну посмотрел вчера на древних тестах, и без JS прятки остались, как и несколько лет назад, т.е. создателя 'браузера гуглебота' это просто не интересует (хотя вроде он обрабатывал то же самое, выполняемое через JS. например AJAX == JS + XML/XSLT, а поотдельности это не... поскольку просто нет смысла 'браузеру гугла' быть полноценным браузером).
так по итогу какой рецепт то?)
так по итогу какой рецепт то?)
А гуглоиды не скажут о планах и намерениях.
Сделать то, что щас вроде работает, и следить - когда перестанет. Но зазор между возможностями гуглебота и браузера замечен давно и пока не сократился до 0. Но раньше приходилось смотреть результат не с первой индексации (что заставляло предполагать экономию ресурсов на выполнение js).
Ну и как бы поздно свято верить в то, что является причиной вашей суеты... возможности нейтрализации у гуглоидов могут уже и быть. Просто они думают масштабнее...