- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
В 2023 году Одноклассники пресекли более 9 млн подозрительных входов в учетные записи
И выявили более 7 млн подозрительных пользователей
Оксана Мамчуева
Посему наши уважаемые представителя Яндекса будут и далее продолжать говорить
Ну, в целом, картина понятна. Из этого вытекает простой риторический вопрос к Яндексу: какого чёрта с его 100500 лучших специалистов по бигдате и машинному лёнингу не удаётся "высветить" множество роботов, их деятельность на множестве сайтов, как побочка борьбы с роботами выявятся такие показатели, как дата и время накрутки в плюс или минус на том или ином сайте (т.е. конечная цель ботохождений конкретно по ресурсам), либо просто шум от ботов без конкретных целей? Даже с моими скудными теоретическими познаниями я (если опять-таки в целом) осознаю, что задача решаема и не так уж сложна для небольшой команды профессионалов и не очень уж затратная по вычислительным мощностям. Т.е. всё снова сводится к простому "какого чёрта Яндекс не хочет нормально выявлять роботов?" 😀
Согласен. Не обижайтесь. Это было образно сказано.
Хорошо, приму за спешную оговорку 😉
В том плане, что не у вас лично, а у любого отдельно взятого человека ))
Я думаю, что у всех сугубо персонально и зависит от уровня представлений и личной осведомлённости.
Я лично за то, чтобы влияние ПФ значительно прибрали, тогда будет больше возможностей конкурировать в кондициях бизнеса, исполнительского профессионализма и маркетинга 😎
Ну, в целом, картина понятна. Из этого вытекает простой риторический вопрос к Яндексу: какого чёрта с его 100500 лучших специалистов по бигдате и машинному лёнингу не удаётся "высветить" множество роботов, их деятельность на множестве сайтов, как побочка борьбы с роботами выявятся такие показатели, как дата и время накрутки в плюс или минус на том или ином сайте (т.е. конечная цель ботохождений конкретно по ресурсам), либо просто шум от ботов без конкретных целей? Даже с моими скудными теоретическими познаниями я (если опять-таки в целом) осознаю, что задача решаема и не так уж сложна для небольшой команды профессионалов и не очень уж затратная по вычислительным мощностям. Т.е. всё снова сводится к простому "какого чёрта Яндекс не хочет нормально выявлять роботов?" 😀
Вопрос действительно риторический. Справедливо отнести его можно ко многим сферам жизни и спросить так - "Почему люди, хорошо понимающие, что есть проблемы, обладающие ресурсом для решения этих проблем не могут взять курс на решительное изменение ситуации?"
Я думаю, что у всех сугубо персонально и зависит от уровня представлений и личной осведомлённости.
Дело в том, что осведомленность Яндекса, с его кучей коммерческих и иных сервисов, именно в вычислении инициатора накрутки ПФ, по сравнению с любым человеком или даже сторонней организацией, будет на порядки выше. Это то, что я хотел сказать.
Фильтр применяется, если алгоритмы из разных срезов их статистики делают вывод, что инициатор накрутки ПФ - так или иначе владелец сайта или связан с ним. Так сотрудники Яндекса обозначали свою политику. И поясняли, что попытка пессимизации конкурентами не будет работать.
Дело в том, что осведомленность Яндекса, с его кучей коммерческих и иных сервисов, именно в вычислении инициатора накрутки ПФ, по сравнению с любым человеком или даже сторонней организацией, будет на порядки выше. Это то, что я хотел сказать.
Мысль понятная. Я с ней в основе своей не спорю, конечно Яндекс продолжает быть (в РФ) передовой IT компанией которая обладает колоссальными возможностями в агрегации, хранении и переработке информации.
Поэтому если через пол года Яндекс закрутит гайки по ПФ как это было во второй половине 2013-го года и в первую очередь из топов посыпятся сайты, которые заказывали себе заходы через ТГ ПФ ботов, то рынок начнёт резко схлоповаться, боты закрываться, а держатели бизнесов придут заливать Серч слезами, что нам крутили, мы (типо) не знали, просто платили SEO-шнику его "честную" 20-ку в месяц, - а тут оказывается такая подлость.
Фильтр применяется, если алгоритмы из разных срезов их статистики делают вывод, что инициатор накрутки ПФ - так или иначе владелец сайта или связан с ним. Так сотрудники Яндекса обозначали свою политику. И поясняли, что попытка пессимизации конкурентами не будет работать.
И да, нет. Т.е. на словах и частично вроде бы да, но чтобы повсеместно внедрять и оно обладало высокой точностью данных видимо возможностей для этого нет (или желания, или корпоративной воли).
Поэтому что-то на уровне разговоров остаётся всегда, а по факту, зайдя в топ в статистике сайта ты так или иначе имеешь дело с информационным шумом от бот трафика.
Сам лично я всецело это не поддерживаю, но осваивать, разбираться и уметь приходится, иначе придётся заниматься чем-то другим.
Сам лично я всецело это не поддерживаю, но осваивать, разбираться и уметь приходится, иначе придётся заниматься чем-то другим.
Не факт. Главное, клиентов правильно подбирать. Работать только с теми, которые в своей нише именно коммерчески конкурентоспособны. И готовы вкладываться в улучшение сайта, устранение технических недостатков. При правильном подходе, никто никакими накрутками их в топе не перебьет.
Это я, как действующий SEO-специалист, говорю. Со стажем более 10 лет на клиентском SEO ))
Работать только с теми, которые в своей нише именно коммерчески конкурентоспособны. И готовы вкладываться в улучшение сайта, устранение технических недостатков. При правильном подходе, никто никакими накрутками их в топе не перебьет.
Так речь о том, что в сегодняшних реалиях получается возможна такая ситуация (сильно упрощенно и чисто теоретически): три сайта занимают топ 3, все три одинаковы по качеству и практически одинаковы по ПФ, удовлетворяют всех посетителей по отдельности в равной степени, но по мелким штришкам пс как-то распределила, что топ именно в таком порядке, кому 1, кому 2, кому 3 место. Владелец сайта на втором месте решает покрутить себя в плюс и сайт на первом месте в минус, чтобы обогнать его. И таки теоретически своей накруткой в рамках изначальных условий он выйдет на первое место, улучшив ПФ себе и ухудшив ПФ лидеру. А поскольку сайт на третьем месте никто не трогал, то его ПФ останутся прежними в целом и он тоже обходит по этому показателю бывшего лидера и смещается на вторую позицию, а лидер, соответственно, вместо 1 места оказывается на 3-м. И вот я так понимаю что в упрощенном виде примерно такое таки возможно. Да, Антоний?
Главное, клиентов правильно подбирать. Работать только с теми, которые в своей нише именно коммерчески конкурентоспособны.
В самую точку, коллега 👍
Я сразу даю установку - если мы (это обращено в адрес заказчика) не идём по пути развития конкурентных преимуществ, то у нас ничего не выйдет. Для меня это обязательное условие, потому что остальное в течение 2-3 месяцев просто засохнет, а тратить время и ресурс на бесперспективный проект для меня нецелесообразно.
И готовы вкладываться в улучшение сайта, устранение технических недостатков.
Я на тему этой необходимости уже годами тружу на форуме :)
Позволю себе небольшую выдержу из своего материала с акцентом на главном,
поэтому если в действительности я не вижу конкурентных перспектив - я не берусь и не советую, хотя опытные SEO специалисты и без меня это хорошо знают :)
При правильном подходе, никто никакими накрутками их в топе не перебьет.
При должных ресурсах, должных возможностях и должной динамике - да, но такие условия есть дааалеко не всегда.
Скорее наоборот чаще всего приходится работать именно в дефиците ресурсов и возможностей, а когда на это ещё накладываются проблемы организационного характера... то это уже совсем другая, но не менее увлекательная для SEO специалистов тему (лучше обсудить её в другой теме) :)
Так речь о том, что в сегодняшних реалиях получается возможна такая ситуация (сильно упрощенно и чисто теоретически): три сайта занимают топ 3, все три одинаковы по качеству и практически одинаковы по ПФ, удовлетворяют всех посетителей по отдельности в равной степени, но по мелким штришкам пс как-то распределила, что топ именно в таком порядке, кому 1, кому 2, кому 3 место.
Дело в том, что в реальности, именно такого, можно сказать, не бывает уже. Позиция в поиске зависит в том числе от пользовательского опыта в браузере, от типа устройства, от удаленности до филиала (для пользователей смартфонов) и т.д. Стабильно ТОП-3 по небрендовым запросам мало кто держит - кроме крупных корпораций.
Но даже если предположить, ваш сценарий, то ТОП1 будет у кого больше ассортимент, лучше цены, лучше отзывы, сайт работает быстрее и т.д. и т.п. Накрутка поведенческих минимальное влияние окажет. А скорее всего будет проигнорирована. В лучшем случае )
Яндекс продолжает быть (в РФ) передовой IT компанией которая обладает колоссальными возможностями в агрегации, хранении и переработке информации
это глум чтоль?)))
яндекс - пятнадцатилетняя девочка, у которой то пмс, то обидки, то непонятная смена настроения
это не "IT компания", нет НИ ОДНОГО сервиса от яндекс, который работает стабильно, понятно и ожидаемо
причем, пока был гугл - вот эти все "ментальные особенности" руководства яндекс как то купировались, ибо был конкурент
как только конкурент временно отошел - мы стали наблюдать настолько плохой сервис и качество услуг, что диву даешься