Обсудим фильтр Яндекса "ты последний"

Pandabeer
На сайте с 13.07.2007
Offline
138
#881

убито до получения дальнейших подтверждений.

Katalogoanatom
На сайте с 08.08.2007
Offline
75
#882

после апа в середине месяца попал под фильтр сайт.

добавленный перед ним контент был неуникальный, но через два дня весь добавленный контент был сделан уникальным (рерайт и проверка через copyscape).

после этого Я все никак не хочет вносить в индекс новые страницы, точнее обновленный контент.

стоит предпринять какие либо действия еще или просто подождать, когда Я всеже учтет изменения?

и вообще я так понял что не каждый ап сайты выходят из под этого фильтра, никто не заметил как часто это случается?

крутая 3D игра на флеше (http://tankionline.com/game.html#friend=886daf2cf)
mastserg
На сайте с 14.04.2005
Offline
108
#883
Katalogoanatom:
после апа в середине месяца попал под фильтр сайт.
добавленный перед ним контент был неуникальный, но через два дня весь добавленный контент был сделан уникальным (рерайт и проверка через copyscape).
после этого Я все никак не хочет вносить в индекс новые страницы, точнее обновленный контент.

стоит предпринять какие либо действия еще или просто подождать, когда Я всеже учтет изменения?
и вообще я так понял что не каждый ап сайты выходят из под этого фильтра, никто не заметил как часто это случается?

ждать надо еще, слишком мало времени прошло еще :)

Постоянно покупаю места под статьи, много (/ru/forum/188576)
PM
На сайте с 08.08.2007
Offline
92
#884
Katalogoanatom:
после апа в середине месяца попал под фильтр сайт.
добавленный перед ним контент был неуникальный, но через два дня весь добавленный контент был сделан уникальным (рерайт и проверка через copyscape).
после этого Я все никак не хочет вносить в индекс новые страницы, точнее обновленный контент.

стоит предпринять какие либо действия еще или просто подождать, когда Я всеже учтет изменения?
и вообще я так понял что не каждый ап сайты выходят из под этого фильтра, никто не заметил как часто это случается?

А лучше еще бэков новеньких наклепать на страници с новым контентом.

Немного.

Магазин аккаунтов с балансом Litres,DNS,Ozon,Rotapost и еще 50+ других сервисов тут - vk.cc/7QK0Sk
Artisan
На сайте с 04.03.2005
Offline
376
#885

Яндекс отменил фильтр "Ты последний"?

/ru/forum/193812

www.leak.info / ДАРОМ линки конкурентов и забытых доменов
N
На сайте с 12.03.2005
Offline
171
#886

Вопрос такой появился. Есть узкие темы-разделы, где сложно, если не невозможно сделать уникальный текст. Например, рецепты, диеты, инструкции, технические характеристики товаров и т.д. Но без этого сайт получается не полным, пользователь не получает весь нужный ему объем информации. Закрывать в noindex тоже не хочется, т.к. есть хорошие ключевики и терять траф поисковый. Как уменьшить вероятность попасть под фильтр в этих случаях?

basterr
На сайте с 24.11.2005
Offline
719
#887

Nedo, ну диеты и т.п. рерайтить можно. тех характеристики тоже изменять слова в них где найдется или закрывать их в ноиндекс.

[Удален]
#888

Мне кажется, чем больше соотношнение неуникального контента к уникальному, тем больше вероятность фильтра.

Можно попытаться автоматически менять в тексте некоторые слова на синонимы или хотя бы предложения или абзацы местами.

N
На сайте с 12.03.2005
Offline
171
#889

basterr, ну это если поизвращаться. Есть диеты из двух строк, есть фактически как точный рецепт, все расписано по дням и по продуктам. От вариаций с текстом они для пользователя будут терять информативность, точность и лаконичность. То же и к тех. характеристикам относится. Ведь поменять несколько слов недостаточно или местами переставить. Нужно серьезно править, чтобы в плагиате не быть заподозренным. Что-то, безусловно, можно изменить, а что-то очень затруднительно.

N
На сайте с 18.05.2003
Offline
100
#890

Обсуждать как вору обойти фильтр "ты последний" не представляет никакого интереса. У всех диет, рецептов, инструкций есть свои авторы. Поисковик исходит из идеальной позиции, что в языке гипертекста при необходимости просто дается на авторский вариант и не появля.тся никакие дубли.

Когда же текст пишется самостоятельно, шансы получить дубли стремяться к нулю. Например, если попробовать взять технические характеристики товара на английском языке, где есть хотя бы 10 параметров и отдать на перевод 20 разным людям, я буду сильно удивлен, если среди результатов будет хотя бы 2 дубля.

Если же переводить (не автоматически) обычный текст хотя бы на 150 знаков, то я сомневаюсь, что дубли могут появиться даже при 100 различных переводчиках.

Намного более полезно обсуждать, как выйти из-под фильтра сайтам с изначально уникальным авторским контентом и как таким сайтам вообще не попадать под этот фильтр или под "Тебя нет":(.

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий