one

one
Рейтинг
336
Регистрация
15.04.2007
raspberry:
чё тут у вас... Аааа, Клопопрыг опять жалуется на жизнь?
Kill 'em all, Roma, иначе никак...

Searching... Seek and destroy! 🚬

Xenos_by:
Хотелось бы удалить и как можно быстрее страницы, которые уже попали в индекс.
Они уже заменены другими, а у этих скрипты перегружают сервер.

Для гугла зайди в вебмастерс тулс и удали нужные страницы...

а <noindex> rel=nofollow отменили уже?

Я МФА видел, но не видел их объявлений на моих сайта...

Дайте глянуть на МФАшную обяву..... Сколько у себя пытался увидеть не видел не разу....

Jefa:
о форумах в системе, точнее о говнофорумах, а еще точнее в их отсутствии.

В ХАР принимают форумы кстати ;)

Что значит говнофорум в Вашем понимании?

А в чем разница форумные ссылки или не форумные кроме того что для Яши они имеют меньший приоритет... Ведь ПР у этих страниц обычный может быть и может быть полезень для тех кто с Гуглом работает.

(GoodWin):
Товарищи, причин для этих довольно заметных траблов с Гуглом может быть всего две:
1) всё то, что понимается под общим понятием "неуникальный контент";
2) наличие платных ссылок.

По первому пункту - они ведь сами все в один голос говорят, что ближайшее (да и, вероятно, в обозримом будущем) не предполагается каких-то решительных шагов для некой "фильтрации" в отношении "дупликейт-контента". "Интернет - это большая ответственность, тем более в сегодняшней России, где он растёт не по дням, а по часам". Такой "фильтрацией" может быть нарушена вся система передачи новостей, а также все те сегменты информационного пространства, где повторение контекстов информации является как бы обязательным и само собой разумеющимся. Вся-вся литературная тематика (включая тексты музыкальных произведений), право и т.п. Это очень и очень долгий исследовательский процесс. Я уж не говорю о том, что это приведёт к значительному снижению переходов на ресурсы из самого Гугла. Поведение пользователей в своей массе - очень малопредсказуемое явление, но главный мотив - это "если инфы там нет, то туда никто не пойдёт".

Единственное, вероятно, исключение - это всё типа RSS. Возможно, это имеет под собой серьёзное основание (фильтровать ресурсы, которые принимают инфу таким образом). Но тогда, скажите мне пожалуйста, какой смысл "сталкивать" ресурс на 500-е позиции, ежели его можно банально "расположить" просто "вслед" оригиналу? И как быть, например, когда на ресурсе всего один RSS-"показыватель" (пусть достаточно большой), а всё остальное - типа "своё"? А если это одна-единственная страница просто безобразна, а на другом - таких с десяток отлично задизайнерных... Как их ранжировать в таком случае? Во многих случаях юзание этой новой кнопки "нравится/не нравится" может приводить к достаточно доминантному и постоянному противоречию предпочтений пользователей поиска методам ранжирования самого поисковика. Какая здесь логика?

Или, в конце концов, тексты новостей можно и рерайтить - даже лучше оригинала. Всё равно вся эта система сохранится какое-то ближайшее время и её какое-то "приспособление" к подобным "требованиям" со стороны Гугла - вопрос длительного времени. И его, вероятно, достаточно действенно не ускорить какими-то репрессивными методами. Да, и в принципе, какой в этом высший "кармический" смысл? Плодить масло-масляное-замасляное-перемасляное?

Второй пункт - всё-таки наиболее вероятен. Об этом говорится во многих конкретных и авторитетных публикациях. Но здесь тоже есть свой предел. Если, скажем, гуглоиды предполагают, что, например, в России продажных сайтов - не более 10% от общего их числа, то фильтрация в этом случае ни в коем случае не должна приводить к совокупному падению трафика с самой ПС Гугль именно на эти же 10%. Большее падение - это уже будет просто обыкновенная потеря конъюнктуры. И, вероятно, задача стоИт наиболее точно "впихнуть" в эти 10% (в данном случае) наибольший процент этих самых "продажных" сайтов. И это полностью - эффект каких-то верных алгоритмов. Но их создание... Это ведь тоже непросто.

Поддержу второй пункт! Продвигал сайт по одному кею покупкой в сапе ссылок. Всего было куплено в течении 6ти дней 5 ссылок и как итог с 24го места скатился в третью сотню и также попадали позиции и других кеев... Все это произошло сегодня.... Сайт полностью с уникальным контеном...

(GoodWin):
Товарищи, причин для этих довольно заметных траблов с Гуглом может быть всего две:
1) всё то, что понимается под общим понятием "неуникальный контент";
2) наличие платных ссылок.

По первому пункту - они ведь сами все в один голос говорят, что ближайшее (да и, вероятно, в обозримом будущем) не предполагается каких-то решительных шагов для некой "фильтрации" в отношении "дупликейт-контента". "Интернет - это большая ответственность, тем более в сегодняшней России, где он растёт не по дням, а по часам". Такой "фильтрацией" может быть нарушена вся система передачи новостей, а также все те сегменты информационного пространства, где повторение контекстов информации является как бы обязательным и само собой разумеющимся. Вся-вся литературная тематика (включая тексты музыкальных произведений), право и т.п. Это очень и очень долгий исследовательский процесс. Я уж не говорю о том, что это приведёт к значительному снижению переходов на ресурсы из самого Гугла. Поведение пользователей в своей массе - очень малопредсказуемое явление, но главный мотив - это "если инфы там нет, то туда никто не пойдёт".

Единственное, вероятно, исключение - это всё типа RSS. Возможно, это имеет под собой серьёзное основание (фильтровать ресурсы, которые принимают инфу таким образом). Но тогда, скажите мне пожалуйста, какой смысл "сталкивать" ресурс на 500-е позиции, ежели его можно банально "расположить" просто "вслед" оригиналу? И как быть, например, когда на ресурсе всего один RSS-"показыватель" (пусть достаточно большой), а всё остальное - типа "своё"? А если это одна-единственная страница просто безобразна, а на другом - таких с десяток отлично задизайнерных... Как их ранжировать в таком случае? Во многих случаях юзание этой новой кнопки "нравится/не нравится" может приводить к достаточно доминантному и постоянному противоречию предпочтений пользователей поиска методам ранжирования самого поисковика. Какая здесь логика?

Или, в конце концов, тексты новостей можно и рерайтить - даже лучше оригинала. Всё равно вся эта система сохранится какое-то ближайшее время и её какое-то "приспособление" к подобным "требованиям" со стороны Гугла - вопрос длительного времени. И его, вероятно, достаточно действенно не ускорить какими-то репрессивными методами. Да, и в принципе, какой в этом высший "кармический" смысл? Плодить масло-масляное-замасляное-перемасляное?

Второй пункт - всё-таки наиболее вероятен. Об этом говорится во многих конкретных и авторитетных публикациях. Но здесь тоже есть свой предел. Если, скажем, гуглоиды предполагают, что, например, в России продажных сайтов - не более 10% от общего их числа, то фильтрация в этом случае ни в коем случае не должна приводить к совокупному падению трафика с самой ПС Гугль именно на эти же 10%. Большее падение - это уже будет просто обыкновенная потеря конъюнктуры. И, вероятно, задача стоИт наиболее точно "впихнуть" в эти 10% (в данном случае) наибольший процент этих самых "продажных" сайтов. И это полностью - эффект каких-то верных алгоритмов. Но их создание... Это ведь тоже непросто.

Поддержу второй пункт! Продвигал сайт по одному кею покупкой в сапе ссылок. Всего было куплено в течении 6ти дней 5 ссылок и как итог с 24го места скатился в третью сотню и также попадали позиции и других кеев... Все это произошло сегодня.... Сайт полностью с уникальным контеном...

А... да... провакатор из ТЦ отличный так что если кому революцию... или переварот какой... то стучитесь смело к нему... ;)

Всего: 3456