Сайт попал под фильтр?

123
E
На сайте с 05.01.2007
Offline
105
#11

Хм, сайт как раз для людей, т.е. для потенциальных покупателей, для нормальной конверсии стараюсь делать все максимально удобно и понятно пользователям. Контент естественно уникальный, правда в силу специфики (сайт шароварный) его не много...

А все таки, по теме вопроса (когда стоит ожидать снятия фильтра и можно ли чего сделать) никто ничего не посоветует? :-)

[Удален]
#12

Товарищи, причин для этих довольно заметных траблов с Гуглом может быть всего две:

1) всё то, что понимается под общим понятием "неуникальный контент";

2) наличие платных ссылок.

По первому пункту - они ведь сами все в один голос говорят, что ближайшее (да и, вероятно, в обозримом будущем) не предполагается каких-то решительных шагов для некой "фильтрации" в отношении "дупликейт-контента". "Интернет - это большая ответственность, тем более в сегодняшней России, где он растёт не по дням, а по часам". Такой "фильтрацией" может быть нарушена вся система передачи новостей, а также все те сегменты информационного пространства, где повторение контекстов информации является как бы обязательным и само собой разумеющимся. Вся-вся литературная тематика (включая тексты музыкальных произведений), право и т.п. Это очень и очень долгий исследовательский процесс. Я уж не говорю о том, что это приведёт к значительному снижению переходов на ресурсы из самого Гугла. Поведение пользователей в своей массе - очень малопредсказуемое явление, но главный мотив - это "если инфы там нет, то туда никто не пойдёт".

Единственное, вероятно, исключение - это всё типа RSS. Возможно, это имеет под собой серьёзное основание (фильтровать ресурсы, которые принимают инфу таким образом). Но тогда, скажите мне пожалуйста, какой смысл "сталкивать" ресурс на 500-е позиции, ежели его можно банально "расположить" просто "вслед" оригиналу? И как быть, например, когда на ресурсе всего один RSS-"показыватель" (пусть достаточно большой), а всё остальное - типа "своё"? А если это одна-единственная страница просто безобразна, а на другом - таких с десяток отлично задизайнерных... Как их ранжировать в таком случае? Во многих случаях юзание этой новой кнопки "нравится/не нравится" может приводить к достаточно доминантному и постоянному противоречию предпочтений пользователей поиска методам ранжирования самого поисковика. Какая здесь логика?

Или, в конце концов, тексты новостей можно и рерайтить - даже лучше оригинала. Всё равно вся эта система сохранится какое-то ближайшее время и её какое-то "приспособление" к подобным "требованиям" со стороны Гугла - вопрос длительного времени. И его, вероятно, достаточно действенно не ускорить какими-то репрессивными методами. Да, и в принципе, какой в этом высший "кармический" смысл? Плодить масло-масляное-замасляное-перемасляное?

Второй пункт - всё-таки наиболее вероятен. Об этом говорится во многих конкретных и авторитетных публикациях. Но здесь тоже есть свой предел. Если, скажем, гуглоиды предполагают, что, например, в России продажных сайтов - не более 10% от общего их числа, то фильтрация в этом случае ни в коем случае не должна приводить к совокупному падению трафика с самой ПС Гугль именно на эти же 10%. Большее падение - это уже будет просто обыкновенная потеря конъюнктуры. И, вероятно, задача стоИт наиболее точно "впихнуть" в эти 10% (в данном случае) наибольший процент этих самых "продажных" сайтов. И это полностью - эффект каких-то верных алгоритмов. Но их создание... Это ведь тоже непросто.

M
На сайте с 01.04.2004
Offline
125
#13
eustin:
* пару месяцев назад покупал ссылки с нетематических сайтов на САПе (пара жирных и много мелких). После этого сайт вышел в топ 10 по некоторым запросом, повисел там пару дней и резко упал и так и не вернулся на нормальные позиции.

Все именно так и происходит. Два дня держится, дальше фильтр. Так что за ссылки ты и поплатился.

E
На сайте с 05.01.2007
Offline
105
#14
Morgul:
Все именно так и происходит. Два дня держится, дальше фильтр. Так что за ссылки ты и поплатился.

Я читал, что обычно через некоторое время после этого (довольно быстро) сайт обычно возвращается на прежние позиции, это так?

E
На сайте с 05.01.2007
Offline
105
#15

Вообще, со временем этот фильтр снимется? Через сколько (месяц, год)?

S3
На сайте с 11.02.2007
Offline
16
#16
Morgul:
Все именно так и происходит. Два дня держится, дальше фильтр. Так что за ссылки ты и поплатился.

Из-за сапы вряд ли.. Хотя еще могло плохо сыграть качество самих ссылок, если их просто дублировали, то минимум - никакого результата, а максимум - такие неприятности.

one
На сайте с 15.04.2007
Offline
336
one
#17
(GoodWin):
Товарищи, причин для этих довольно заметных траблов с Гуглом может быть всего две:
1) всё то, что понимается под общим понятием "неуникальный контент";
2) наличие платных ссылок.

По первому пункту - они ведь сами все в один голос говорят, что ближайшее (да и, вероятно, в обозримом будущем) не предполагается каких-то решительных шагов для некой "фильтрации" в отношении "дупликейт-контента". "Интернет - это большая ответственность, тем более в сегодняшней России, где он растёт не по дням, а по часам". Такой "фильтрацией" может быть нарушена вся система передачи новостей, а также все те сегменты информационного пространства, где повторение контекстов информации является как бы обязательным и само собой разумеющимся. Вся-вся литературная тематика (включая тексты музыкальных произведений), право и т.п. Это очень и очень долгий исследовательский процесс. Я уж не говорю о том, что это приведёт к значительному снижению переходов на ресурсы из самого Гугла. Поведение пользователей в своей массе - очень малопредсказуемое явление, но главный мотив - это "если инфы там нет, то туда никто не пойдёт".

Единственное, вероятно, исключение - это всё типа RSS. Возможно, это имеет под собой серьёзное основание (фильтровать ресурсы, которые принимают инфу таким образом). Но тогда, скажите мне пожалуйста, какой смысл "сталкивать" ресурс на 500-е позиции, ежели его можно банально "расположить" просто "вслед" оригиналу? И как быть, например, когда на ресурсе всего один RSS-"показыватель" (пусть достаточно большой), а всё остальное - типа "своё"? А если это одна-единственная страница просто безобразна, а на другом - таких с десяток отлично задизайнерных... Как их ранжировать в таком случае? Во многих случаях юзание этой новой кнопки "нравится/не нравится" может приводить к достаточно доминантному и постоянному противоречию предпочтений пользователей поиска методам ранжирования самого поисковика. Какая здесь логика?

Или, в конце концов, тексты новостей можно и рерайтить - даже лучше оригинала. Всё равно вся эта система сохранится какое-то ближайшее время и её какое-то "приспособление" к подобным "требованиям" со стороны Гугла - вопрос длительного времени. И его, вероятно, достаточно действенно не ускорить какими-то репрессивными методами. Да, и в принципе, какой в этом высший "кармический" смысл? Плодить масло-масляное-замасляное-перемасляное?

Второй пункт - всё-таки наиболее вероятен. Об этом говорится во многих конкретных и авторитетных публикациях. Но здесь тоже есть свой предел. Если, скажем, гуглоиды предполагают, что, например, в России продажных сайтов - не более 10% от общего их числа, то фильтрация в этом случае ни в коем случае не должна приводить к совокупному падению трафика с самой ПС Гугль именно на эти же 10%. Большее падение - это уже будет просто обыкновенная потеря конъюнктуры. И, вероятно, задача стоИт наиболее точно "впихнуть" в эти 10% (в данном случае) наибольший процент этих самых "продажных" сайтов. И это полностью - эффект каких-то верных алгоритмов. Но их создание... Это ведь тоже непросто.

Поддержу второй пункт! Продвигал сайт по одному кею покупкой в сапе ссылок. Всего было куплено в течении 6ти дней 5 ссылок и как итог с 24го места скатился в третью сотню и также попадали позиции и других кеев... Все это произошло сегодня.... Сайт полностью с уникальным контеном...

Решения для автоматизации действий ( https://www.facebook.com/automationstudio20/ ) в интернете.
W
На сайте с 30.10.2002
Offline
103
#18

Качество ссылок тогда было ужасное

one
На сайте с 15.04.2007
Offline
336
one
#19
(GoodWin):
Товарищи, причин для этих довольно заметных траблов с Гуглом может быть всего две:
1) всё то, что понимается под общим понятием "неуникальный контент";
2) наличие платных ссылок.

По первому пункту - они ведь сами все в один голос говорят, что ближайшее (да и, вероятно, в обозримом будущем) не предполагается каких-то решительных шагов для некой "фильтрации" в отношении "дупликейт-контента". "Интернет - это большая ответственность, тем более в сегодняшней России, где он растёт не по дням, а по часам". Такой "фильтрацией" может быть нарушена вся система передачи новостей, а также все те сегменты информационного пространства, где повторение контекстов информации является как бы обязательным и само собой разумеющимся. Вся-вся литературная тематика (включая тексты музыкальных произведений), право и т.п. Это очень и очень долгий исследовательский процесс. Я уж не говорю о том, что это приведёт к значительному снижению переходов на ресурсы из самого Гугла. Поведение пользователей в своей массе - очень малопредсказуемое явление, но главный мотив - это "если инфы там нет, то туда никто не пойдёт".

Единственное, вероятно, исключение - это всё типа RSS. Возможно, это имеет под собой серьёзное основание (фильтровать ресурсы, которые принимают инфу таким образом). Но тогда, скажите мне пожалуйста, какой смысл "сталкивать" ресурс на 500-е позиции, ежели его можно банально "расположить" просто "вслед" оригиналу? И как быть, например, когда на ресурсе всего один RSS-"показыватель" (пусть достаточно большой), а всё остальное - типа "своё"? А если это одна-единственная страница просто безобразна, а на другом - таких с десяток отлично задизайнерных... Как их ранжировать в таком случае? Во многих случаях юзание этой новой кнопки "нравится/не нравится" может приводить к достаточно доминантному и постоянному противоречию предпочтений пользователей поиска методам ранжирования самого поисковика. Какая здесь логика?

Или, в конце концов, тексты новостей можно и рерайтить - даже лучше оригинала. Всё равно вся эта система сохранится какое-то ближайшее время и её какое-то "приспособление" к подобным "требованиям" со стороны Гугла - вопрос длительного времени. И его, вероятно, достаточно действенно не ускорить какими-то репрессивными методами. Да, и в принципе, какой в этом высший "кармический" смысл? Плодить масло-масляное-замасляное-перемасляное?

Второй пункт - всё-таки наиболее вероятен. Об этом говорится во многих конкретных и авторитетных публикациях. Но здесь тоже есть свой предел. Если, скажем, гуглоиды предполагают, что, например, в России продажных сайтов - не более 10% от общего их числа, то фильтрация в этом случае ни в коем случае не должна приводить к совокупному падению трафика с самой ПС Гугль именно на эти же 10%. Большее падение - это уже будет просто обыкновенная потеря конъюнктуры. И, вероятно, задача стоИт наиболее точно "впихнуть" в эти 10% (в данном случае) наибольший процент этих самых "продажных" сайтов. И это полностью - эффект каких-то верных алгоритмов. Но их создание... Это ведь тоже непросто.

Поддержу второй пункт! Продвигал сайт по одному кею покупкой в сапе ссылок. Всего было куплено в течении 6ти дней 5 ссылок и как итог с 24го места скатился в третью сотню и также попадали позиции и других кеев... Все это произошло сегодня.... Сайт полностью с уникальным контеном...

M
На сайте с 01.04.2004
Offline
125
#20
eustin:
Я читал, что обычно через некоторое время после этого (довольно быстро) сайт обычно возвращается на прежние позиции, это так?

ну вообще по моему опыту фильтр за ссылки не быстро уходит. :(

eustin:
Вообще, со временем этот фильтр снимется? Через сколько (месяц, год)?

большой вопрос. Думаю, многое зависит от проводимой работы. У меня один сайт именно после сапы (менее 10 ссылок, кач-во ссылок нормальное) улетел. Летом очень на непродолжительное время вернулся и снова в фильтр. На днях на 1 день снова вылез и снова под фильтр. Вот и считай. С другой стороны, над этим сайтом работы мало идет.

Есть другой сайт, более предпочтительный на данный момент. В фильтр ушел 25 октября. Ровно через месяц на 2 дня вышел и снова в зад. Работа над сайтом идет полным ходом, покупались хорошие тематические ссылки.

sanya32:
Из-за сапы вряд ли.. Хотя еще могло плохо сыграть качество самих ссылок, если их просто дублировали, то минимум - никакого результата, а максимум - такие неприятности.

из-за сапы запросто.

webgid:
Качество ссылок тогда было ужасное

вот у меня кач-во ссылок было нормальным, проверял по всякому. Улетело тогда именно из-за сапы. Правда есть нюанс - над тем сайтов долго не работали, тут решили поставить всего несколько ссылок, похоже это было слишком неествественно (хотя ПР ссылок 3-5).

123

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий