aldous

Рейтинг
109
Регистрация
25.10.2014

Вы не понимаете сам принцип антипиратского алгоритма. Есть международная организация CE. Ей делегированы права заниматься с агентами правообладателей (технически очень хорошо подкованы и оснащены), обрабатывать заявки в соответствии с законом и решить судьбы пиратов (есть некоторые кнопки). Члены ассоциации - Гугл, Бинг, вроде Фейсбук и т.д. По понятным причинам самый пиратский из всех - это Google (Яндекс, как мне кажется, тоже вступит в ассоциацию). CE принимает жалобу от пробла и выставляет её в Google, тот акцептит, и контент удаляется. В итоге юридический отдел перегружен. Попутно ведутся разработки всяких каверз вроде подмены пиратской выдачи лицензионной рекламой и т.п.

Чтобы юристы Гугла имели возможность нормально работать, был разработан где-то с 2012 и т.д. механизм отсева абузных сайтов. Сайты с абузами по определённым причинам просто перестают попадать в выдачу. Особенно это касается мелкоты. И сами не зарабатывают и другим не дают, оттягивая совокупно львиную часть запросов на себя. Если вы не солидный пират, а мелочёвка, то скорее всего придётся про Гугл забыть, или как два известных муз.сервиса можно начать контактировать с агентами проблов (то ли они жалобы отзывают, то ли ещё что-то) и с CE (взносы в фонд борьбы с пиратством, насколько помню).

Ну и конечно народная медицина не спит (фильтрация контента по агентам, просто не постить контент, опекаемый самыми злостными агентами), смена домена раз в полгода.

Сейчас механизм отсева пиратов ещё упростился. Все мелкие пираты - активные гс с кучей нарушений. Ручные меры таким и пинок под зад.

Удаление абузных материалов после жалобы - это постфактум. Гугл сообщал, что постфактум редко помогает.

То, что среди агентов пробла попадаются "кидалы" - есть такое. Но как мне кажется, ситуация "вор у вора дубинку украл" не беспокоит ни общественность, ни корпорациии, ни пользователей.

К "обращение в суппор и за деньги" этот блок не имеет никакого отношения.

Это новая "фича" в поиске. Не реклама и не разметка. На примере скрина с ней вышел косяк. Пример уходит в баг.

Результаты кстати у всех разные могут быть.

Есть там кнопка "отзыв", можно отписать, что не нравится.

сайт от индексации google через robots.txt.

Robots.txt управляет доступом робота (краулингом)/сканированием, а не индексацией.

Если закрыть в robots, старые материалы останутся, просто не будут обновляться в поисковых базах.

Метатег robots надо было использовать.

По поводу антипиратского фильтра читайте Chilling. Если есть доход и будете делиться им, всё будет в порядке.

Как настроите x-robots, не забудьте открыть в robots.txt доступ к тому, что решили удалить из индекса.

А вообще последнее время сложнее стало понимать какая ссылка работает а какая нет, такое ощущение что алгоритм сам решает передавать ли вес или нет

Палить нечего. Этим занимаются машинные интеллекты и бригады инженеров. Никто из нормальных живых людей туда не лезет и не интересуется.

а) У Google нет поддержки.

б) Основное правило Google. Сначала популярность, потом результаты выдачи. Непопулярный сайт находится в заднице выдачи - это естественно.

а) Посмотреть как Гуглбот

б) Добавить в качестве сайтмап фид (атом или рсс) с параметром показывать последние страницы

Фид Гугл сканирует в разы быстрее, чем сайтмап (изредка). В фиде достаточно держать 24 обновленнные страницы.

Тут можно логически порассуждать.

1. Примерно 4-5 месяцев назад решили мониторить Google. Обнаружили низкие позиции.
2. В WMT нашли ручные санкции за внешние ссылки.

Ручные меры за ссылки. Обнулён рейтинг сайта.

3. Начал снимать сапу, начиная с самого шлака. В итоге сняв всего 60 ссылок (из 1200) и отписав все это дело в dissawow получил снятие ручных санкций и рост позиций на более менее приемлимый уровень.

"Более менее приемлимый уровень" - это те плюсовые факторы (включая "естественное", то есть не найденное проверкой купленное ссылочное), которые обеспечили позиции согласно рейтингу, снятому с заморозки за вычетом покупного. В общем, повезло.

4. Когда Яндекс огласил про минусинск - нам пришло письмо на вебмастер. Всю сапу размером в 1200 сняли.

И обвалили себе ссылочное. Но Google редко трогает сайты сразу. Ссылочный алгоритм проверки качества сайта сработает позже.

5. В середине Июня по ошибке техников был установлен robots.txt с полным закрытием сайта.

Выстрел себе в ногу. Только это не закрытие сайта, а закрытие доступа для робота. ПС просто перестаёт обновлять информацию по сайту и трёт описание в сниппете.

6. Косяк обнаружился лишь в начале Июля. Нормальные роботс был установлен и я стал ждать возвращение в гугл, обновил сайтмап и закинул его в WMT.

Тут происходит реиндекс. Что уже плохо. Запускается механизм сбора информации по сайту.

7. 20 июля позиции начали возвращаться (но не на прежние места).

Сайт проходит первичный отсев.

А сегодня обнаружился тотальный обвал.

И получает положенный пинок и за ссылки и за даунтайм. Потому что при потере ссылочного нельзя делать технические кульбиты. Но наверняка есть ещё 100500 зацепок, о которых топикстартер умолчал.

Многие пишут, что плохой аптайм и т.д. Гугл не любит. Это не совсем так. Если сайт работает криво, Google начинает реиндексировать разными категориями, постепенно вытаскивая косяки наружу. Вот и происходит взрыв.

Вот существует сайт с оригинальным контентом. Со временем контент воруют и т.д.
И вдруг этот сайт закрывают от роботов гугла, он его выплевывает. А потом сайт снова открывают, и получает что контент его уже не оригинальный. Бред сивой кобыла или имеет право на жизнь такая теория ?

Нет никакого оригинального контента для Google. Никого это не интересует. Кто утром встал и отжиматься умеет на кулаках, того и тапки. Если у вора рейтинг выше, чем у донора, он будет ранжироваться лучше. Отсюда мораль - следи за сайтом, чтобы не был он гс. А если Хабр спёр твою статью, пиши в суппорт Хабру и придумывай кары небесные, не беспокоя поисковики по всякой ерунде.

Ручных санкций нету.

Может плохо смотрели (смотреть на www и без). Палитесь второй раз на ссылках, гугляете в бане долго. Вот такой расклад.

Примеры нужны.

Причём Google не обещал никогда индексировать ВСЁ. И постепенно учится фильтровать дубли.

Плюс даже наличие страницы в индексе не гарантия, что пользователю она попадётся в выдаче даже на сотом месте.

Ну ещё кривые руки и факт невезучести тоже нельзя отметать.

Программа Ауторшип предполагала связывание профиля с сайтом для последующего отображения в результатах поиска сниппета в виде квадратика из фотографии профиля. Всё.

Никаких подтверждений, защит от копипастов каких-то преимуществ и т.д. это не давало.

Пробный запуск данной программы выявил много неудобств, включая некорректное отображение в мобильной выдаче этих сниппетов. На сегодняшний день ауторшип закрыт.

Всего: 425