Boris Baydenko

Рейтинг
35
Регистрация
13.03.2008

Cмотря с какими анкорами и на кого сошлётесь. Ведь официальная позиция Пс вроде не изменилась: за внешние факторы наказывать только доноров (что в принципе понятно - идёт отстрел дорвеев, сеток, линкоферм и прочих не вполне честных приёмов продвижения), а вот акцепторы вроде бы не должны страдать от получения таких ссылок (но, похоже, с некоторого времени и этот факт уже не является незыблимой истиной). Но донорам наказания никто не отменял.

А чем Вам всем Аваст не нравится? Он этих троянов как крысят душит.

Boris Baydenko добавил 29.07.2008 в 11:25

Да и с обновлениями и с надёжностью и со скачиванием у Аваста куда проще, чем у НОДа (а Касперский вообще гавно редкое - особенно нелицензионка)

Похоже, ясно, с чем этот глюк был связан: Яндекс прикрутил очередную фишку- стал показывать отчет по строке ввода запроса. Попробуйте ввести запрос вручную и посмотрите на строку URL.

А как насчёт "заказ курсовой"?

Boris Baydenko добавил 28.07.2008 в 11:59

Посмотрите - тоже глюк ещё не убрали.

Boris Baydenko добавил 28.07.2008 в 12:06

Похоже на проблемы с кэшом. Но только по некоторым запросам ("заказ курсовой", "палатки туристические продажа"). Уж не началась ли аппробация результатов под релиз Находки?

Что тут говорить... У меня вон на народе сайты порезаны за то, что доменные имена похожи (множественная регистрация), а ведь на каждом уникальный контент...сам писал и копискейпом проверил...правда, не бан, но доступа нет...грустно.

/ru/forum/247582 - читайте свежачок, анализируйте, делайте выводы

Ссылка на чём прописана? И на чём прописан ресурс, на который она ведёт? (Java, Perl, PHP...)

Насколько я знаю, проблема решается с помощью прописывания запрета на индексацию соответствующего ресурса в файле robots.txt.

Похоже на то, что прикручено в Яндексе (с помощью Яваскрипта, видимо), а именно - предположение по поводу вида поискового запроса, который введёт пользователь. Аналогичный сервис ранее был прикручен (да и сейчас есть) в Гугле, Youtube (и где-то ещё, возможно - где, не знаю) Примеры: http://suggest.yandex.ru/suggest-ff.cgi?part=f, http://suggest.yandex.ru/suggest-ff.cgi?part=fo и т.д. ...

Boris Baydenko добавил 24.07.2008 в 18:01

Исчо: http://suggest.yandex.ru/suggest-ff.cgi?part=%D0%BA%D0%B8

Solmyr:
Количество дубликатов документов попадающих в выду прежде всего зависит от количества документов релевантных этому запросу. Если релевантных документов мало - то в выдаче будет много дублей.

Ну, так тогда все мои народные сайты с текстом про одно философское понятие ("boris-baydenkoX" X=1,2,3,4...) были абсолютно несправедливо порезаны Яндексом (доступа к ним уже нет, и чувствую, что скоро будет бан)

Исходя из всего, что здесь написано ТС, вроде должно следовать следующее: 2 сайтов/страниц с одинаковыми кусками контента не должно быть в выдаче - Яндекс один из них тут же скосит. Но это далеко не всегда так. Вывод, который из этого можно сделать:

1) Есть какой-то предел в совпадении контента (75%, 69%, 90%, 12%... - точно не знаю), до которого просто не наказывают за неуникальность. Если не ошибаюсь, там что-то говорится про алгоритм с использованием шинглов...

2) Страница с неуникальным контентом могла ещё не лечь в кэш, а попасть под выдачу быстробота (кое-где в выдаче кэши отличаются от выдачи в серпе)

3) Главное: есть ссылки на первоисточник (adfile) со страниц, заимствующих контент, что "легализирует" наличие таких сайтов в выдаче по запросу. Насколько я знаю, размещение статей - это легальный приём в продвижении.

Boris Baydenko добавил 24.07.2008 в 12:38

З.Ы. Может, я не упомянул что-то ещё, о чём забыл/не знаю...

Всего: 216