Говоря на понятном языке, Гуглоиды упорно утверждали, что это нормально, когда в выдаче результаты одного сайта занимают 2-3 и более позиций. А тут "хоба" взяли и пофиксили эту хрень. Кстати, по моим тематикам эта хрень сильно проявилась в период "медикал апдейта"
1. У меня на нескольки проектах микроразметка перенеслась без лишних движений.
2. Относительно влияний ссылок и nofollow тут все очень относительно. И в свете последних событий я вообще наблюдаю тенденцию, что лучше ссылки ставить обычные и не париться.
Согласитесь, что тоже вариант так себе, когда парсят сайт со всех сторон. Закрываем один дор, а завтра их уже пять.
Подайте. Сервер в Доминикане, домен зареган на Украину, а вы в России. В какой суд подавать планируете? =)---------- Добавлено 09.06.2019 в 19:40 ----------
Не знаю таких парсеров, которые бы не имели captcha взлома. Поговорите с админом сервера, он поможет вычислить по логам.
По поводу индексации - goole Webmaster, но сейчас он поломался. Другие сервисы тоже так себе... с индексацией сейчас беда.
Сегодня нарвался на пост на известном ресурсе. Человек возмутился тому, что у него вылезло по запросу "рак легких". А точнее, возмутила реклама:
А вот что мы видим далее:
То есть Гугл так беспокоится за выдачу, а вот в рекламу пускает явных шарлотанов, которые никакого отношения к медицине не имеют. Ну а почему бы и нет, они ж деньги то за клики платят...
Нет слов, одни эмоции...
От всех заблокироваться можно только анализируя активность и расставляя honeypots - ловушки. То есть мы создаем место, куда юзер не сможет зайти, а вот бот перейдет по невидимой ссылке. Или мы анализируем активность юзера, например, он загрузил сотню страниц за 2 секунды - это значит, что это бот. Для особо упрямых воришек мы просто делаем парсинг сайта убыточным делом. Ему каждый раз приходится дорабатывать код парсера, менять прокси и т д. Вообщем, спустя неделю - две человек просто переключается на другой сайт.
Есть много способов защиты от копирования, но как показывает мой опыт, здесь все равно придется работать руками.
Как делаем мы:
1. Определяем копирует робот, или человек. Если робот, то блокируем, а лучше блокируем от всех роботов, кроме нужных.
2. Иногда при помощи скрипта скармливаем роботу абракадабру
3. Был интересный случай, когда заказчик попросил скормить роботам нелегальный контент, а именно призывы к суициду, продажа наркотиков. Мы написали скрипт, дали ему доступ, он уже сам кормил парсеров каким то контентом, а следом находил их в Гугле и подавал куда то жалобы. Я не уточнял что именно он кормил и куда жалобы подавал, но человек счастлив и до сих пор пользуется нашим скриптом.
Если копирует человек:
1. Для всех, кроме роботов Гугла, Яндекс и т.д. мы переводим часть контента в SVG картинки. То есть для человека остается два выхода:
а) перепечатывать каждую статью руками
б) сделать принт скрин и распознать текст
и тот и другой способы достаточно геморные
2. Вычисляем IP и другие параметры вора (не буду перечислять) и блокируем его
3. При смене IP вор легко вычисляется по поведению
4. Подменяем контент для определенного человека. То есть при заходе на ваш сайт он получает сгенерированный полутупой текст.
Отмечу, что каждый случай уникальный. Были разные случаи, но для 80% вебмастеров достаточно простой защиты от ботов.
Я еще в марте спорил с одним товарищем здесь на форуме и предложил ему найти проблему в сайтах, которые просели. Когда я ему скинул 2 сайта, он нашел на них сотню ошибок, сказал мне идти и учиться. Только проблема была в том, что я скинул ему сайты, которые пошли в рост =)
Я с вами согласен, что у каждого свой субъективный взгляд на работу, тем более на свою. Но есть ведь случаи, когда сайты идут в минус в один апдейт, а потом в жесткий плюс. И у меня такие случаи были, я просто ждал, не делал НИЧЕГО. Все это напоминает рандом и загон людей в контекстную рекламу. Когда по запросу "увеличение груди в москве" я в выдаче получаю Комсомольскую правду и АиФ, то меня это наводит на определенные мысли...---------- Добавлено 07.06.2019 в 00:19 ----------
Ваш сайт? :)))
Ничего идеального не существует. А вот то, что сайт соответствует рекомендациям, которые дает нам Гугл - вот это другой разговор. Или вы считаете, что АиФ идеальный?
У меня по нескольким направлениям рвет ТОП вот этот пациент prostodelaytak.ru, вы считаете, что у меня сайты хуже?
Нет, не было и не будет нормальных курсов по SEO. Пока копирайтеры их пишут, алгоритмы ПС меняются и информация становится не актуальной.
Лучшие курсы - это практика. А если хотите посмотреть марафоны и кейсы, то смотрите на BHW, там не всегда актуальная инфа и не всегда подходит под определенные ниши, но общий смысл вам будет понятен.
А на самом деле, различий не так много. Хороший сайт, с хорошей структурой и ХОРОШИМ контентом (не переводы выпускников педагогических ВУЗов) + smm сигналы + ХОРОШИЕ ссылки из СМИ и тематических ресурсов - успех. Но ссылок надо много и стоят они дорого. PBN катит для быстрого старта и такого же падения со временем.