Антоний Казанский

Антоний Казанский
Рейтинг
787
Регистрация
12.04.2007
Должность
Частный интернет-маркетолог и SEO специалист
Интересы
Интернет-маркетинг, SEO, интернет реклама
Подробности на сайте https://akazansky.ru
Sultan :
Если в подвале страницы разместить текст объёмом 30 000 знаков и показывать его только для бота

Значит вы неправильно реализовали структуру страницы, умышленное скрываете содержание.


Sultan :
AdSense, будет ли это считаться клоакингом?

Будет считать или не будет, однозначного ответа нет, ибо надо видеть и пример, и результат обработки ПС.

Суть в том, что это неправильное направление мысли, надо не загонять себя в условия, чтобы была необходимость скрывать 30K текста для пользователей и открывать для ботов.

Анти ДДОС #:
Одна из крупных ботоферм, крутит в том числе Гонконгскими айпи.

Какой у них ASN?

Slav_on #:
Это  накрутка ради накрутки?

Именно так, это накрутка ради видимости мнимых результатов.


Slav_on #:
Разве нелогично выходит, человек ищет одно заходит на некий нелепый сайт и уходит.

Логично. Накрутчики реальным продвижением бизнеса не занимаются, это химера.


Slav_on #:
Прям по Пелевину и его «Дженирейшен ПИ», взять деньги слепить ролик и не дожидаясь выхода клиента из запоя свалить.

Именно так, Вава 😉


не хаос #:
Хорошо что хоть здесь можно узнать всю правду о их деятельности :-) 

Годами талдычу один и тот же тезис - надо работать не просто над позициями, а над продуктовым развитием, а это во многом даже не про SEO. 

Но весь контраст мнений в том, что и без стимуляции бот трафика, можно тоже долгими годами пробивать конкурентный потолок, тут очень многое зависит от тематики, ниши, конкурентных возможностей, рабочей динамики и т.д.

Посыл в том, что без полноценной работы реального и полезного эффекта для бизнеса не будет. Накрутка в чистом виде просто "отрабатывает номер".

Сергей про е-ком #:
Так закажите шаблон по референсу

Самый резонный совет - возьмите текущий дизайн/функционал за базовый референс, проведите конкурентный SWOT анализ по текущим топовым UX/UI решениям в данной нише и добавьте необходимого.

Конечно делать полное подобие без указание авторского бренда не вполне корректно.

nikonlay :
В последние пару месяцев по крайней мере на двух сайтов вижу аномальный резкий всплекс посещаемости

Темы с аналогичной проблемой (присутствие бот паразитного трафика) создаются через день. Эта тема не уходит с повестки.

Чтобы не повторяться, информацию можно посмотреть здесь.

Vladimir #:
Мой ответ - повлиять можем.

Vladimir в следующий раз пишите свой ответ тому, кто задал вопрос. Я у вас ничего не спрашивал и в вашем ответе, а равно и в оценке моего комментария не нуждался.


Vladimir #:
Множеству остальных сайтов - можно "привыкать".🤷‍♂️

Не разводите пустую демагогию. Я выше указал, что повлиять на ситуацию можно, но насколько это целесообразно в контексте окупаемости - вопрос, требующий дополнительного анализа.

Natalya39 :
Здравствуйте. Как запретить переходы на сайт с браузера Firefox Mobile (через htaccess)? 90% переходов с этого источника боты.

Опасная затея, рискуете обрубить доступ реальным мобильным пользователям.

не хаос #:
По поводу полновесных уникальных текстов очень большие сомнения.

На основе чего у вас сомнения? Вы эти тексты в глаза не видели и не понимаете о чём идёт речь, а делаете уже какие-то выводы.


не хаос #:
Полная уникальность там где:

Экспериментальные исследования с новыми данными, графиками и выводами.  

Авторские методики и патентные описания.  

не хаос #:
То есть у ваших авторов текстов свои научно -исследовательские лаборатории?

Какие научно-исследовательские лаборатории? 😳 Речь идёт о карточках товара, которые годами ранжировались в топе в Гугле и продолжают быть топовыми в Яндексе. Внутри страниц - подробные технические и потребительские описания, которые эффективно собирают микро и низкочастотный трафик в Яндексе.

Гугл ввиду снижения общего спроса начинает выводить эти страницы из индекса. Вот ключевой тезис.

Можно ли их вернуть в индекс и закрепить? Я думаю можно, путём задействования доп. источников рекламы, дополнениями авторским фото и видео контентом, прокачкой ссылочной. Всегда вопрос - насколько это оправдано с точки зрения доп. вложений, если с канала орг. трафика это не окупится? Стоит это делать только ради формальной индексации? Вот здесь вопрос и в нём придётся разбираться практическим путём.

Это и есть направление работы на стыке товарной аналитики и проработки SEO кондиций. 

Есть на это запрос у бизнес - конечно есть, любые значимые потери воспринимают бизнесом остро и никто кроме SEO специалиста этим внутри бизнеса заниматься не будет.  

Vladimir #:
Не обязан, но может

Именно так. Имеет доступ, но в зависимости от спроса будет решать - использовать ему ресурсы для индексации и хранения страниц, которые имеют спрос в частотности после запятой или нет.


Vladimir #:
поэтому пусть хранит все... мои сайты. 

Вопрос не в хранении как в таковом - вопрос в эффективности использования.

Если несколько лет назад тот же рабочий сайт имел, условно 95-98% процентов индексации, то за последний год я вижу тенденцию, что порядка 15-20% процентов в статусе "Страница просканирована, но пока не проиндексирована" при том, что сайтам в среднем несколько лет, они активно развиваются и страницы которые выпали вылизаны по внутрянке, имеют полновесные уникальные тексты. С Яндексом - всё нормально, там есть и точечный трафик и никаких колебаний с индексом, Гугл - медленно но верно сбрасывает из индекса то, на чью долю не попадают клики (фактически спрос в Гугле на эти товары очень слабый). 

А с учётом того, что Гугл и его сервисы вообще теряют в РФ свои позиции (понятно в связи с чем), то мы имеем тенденцию постепенного сжимания спроса и поискового трафика с Гугла. 

Можем ли мы повлиять на это - нет не можем, поэтому к слову "привыкать" имелось ввиду следующее -> увидеть, осознать и принять реальность, где в Гугле будет и спрос падать, и часть индекса тоже будет скорее всего теряться. 

Поэтому все эти общие рекомендации с Console-ем - это всё для новичков, я же понимаю и вижу (и фактически мониторю заходы Гугла по логам), что проблем доступа к материалам нет, просто Гугл экономит ресурсы и снижает себе нагрузку индексации те страниц, которые по его мнению, имеют спрос, сильно стремящий к нулю.

Так понятно?


Vladimir #:
постоянный совет - использовать Search Console, но и он почему то ломается.

Потому что он формальный и общий, не имеющий отношения к реальной проблеме.


Vladimir #:
Т.е повсеместная, но может тенденция не в Гугле?

Можно порассуждать и на эту тему, схожие признаки не только в Гугле.

  

Vladimir #:
Может, надо учитывать новые реалии, а не привыкать?

"Привыкать" имелось ввиду, что Гугл и не обязан хранить все доступные для индексации страницы в индексе.


Vladimir #:
Гугл сокращает объём индекса ваших сайтов.

Многих сайтов. Тенденция повсеместная.


Vladimir #:
Привыкли к новым реалиям, вместо решения задач?

Не вместо. Необходимость работы никто не отменял. 

Всего: 12574