Cмотря с какими анкорами и на кого сошлётесь. Ведь официальная позиция Пс вроде не изменилась: за внешние факторы наказывать только доноров (что в принципе понятно - идёт отстрел дорвеев, сеток, линкоферм и прочих не вполне честных приёмов продвижения), а вот акцепторы вроде бы не должны страдать от получения таких ссылок (но, похоже, с некоторого времени и этот факт уже не является незыблимой истиной). Но донорам наказания никто не отменял.
А чем Вам всем Аваст не нравится? Он этих троянов как крысят душит.
Boris Baydenko добавил 29.07.2008 в 11:25
Да и с обновлениями и с надёжностью и со скачиванием у Аваста куда проще, чем у НОДа (а Касперский вообще гавно редкое - особенно нелицензионка)
Похоже, ясно, с чем этот глюк был связан: Яндекс прикрутил очередную фишку- стал показывать отчет по строке ввода запроса. Попробуйте ввести запрос вручную и посмотрите на строку URL.
А как насчёт "заказ курсовой"?
Boris Baydenko добавил 28.07.2008 в 11:59
Посмотрите - тоже глюк ещё не убрали.
Boris Baydenko добавил 28.07.2008 в 12:06
Похоже на проблемы с кэшом. Но только по некоторым запросам ("заказ курсовой", "палатки туристические продажа"). Уж не началась ли аппробация результатов под релиз Находки?
Что тут говорить... У меня вон на народе сайты порезаны за то, что доменные имена похожи (множественная регистрация), а ведь на каждом уникальный контент...сам писал и копискейпом проверил...правда, не бан, но доступа нет...грустно.
/ru/forum/247582 - читайте свежачок, анализируйте, делайте выводы
Ссылка на чём прописана? И на чём прописан ресурс, на который она ведёт? (Java, Perl, PHP...)
Насколько я знаю, проблема решается с помощью прописывания запрета на индексацию соответствующего ресурса в файле robots.txt.
Похоже на то, что прикручено в Яндексе (с помощью Яваскрипта, видимо), а именно - предположение по поводу вида поискового запроса, который введёт пользователь. Аналогичный сервис ранее был прикручен (да и сейчас есть) в Гугле, Youtube (и где-то ещё, возможно - где, не знаю) Примеры: http://suggest.yandex.ru/suggest-ff.cgi?part=f, http://suggest.yandex.ru/suggest-ff.cgi?part=fo и т.д. ...
Boris Baydenko добавил 24.07.2008 в 18:01
Исчо: http://suggest.yandex.ru/suggest-ff.cgi?part=%D0%BA%D0%B8
Ну, так тогда все мои народные сайты с текстом про одно философское понятие ("boris-baydenkoX" X=1,2,3,4...) были абсолютно несправедливо порезаны Яндексом (доступа к ним уже нет, и чувствую, что скоро будет бан)
Исходя из всего, что здесь написано ТС, вроде должно следовать следующее: 2 сайтов/страниц с одинаковыми кусками контента не должно быть в выдаче - Яндекс один из них тут же скосит. Но это далеко не всегда так. Вывод, который из этого можно сделать:
1) Есть какой-то предел в совпадении контента (75%, 69%, 90%, 12%... - точно не знаю), до которого просто не наказывают за неуникальность. Если не ошибаюсь, там что-то говорится про алгоритм с использованием шинглов...
2) Страница с неуникальным контентом могла ещё не лечь в кэш, а попасть под выдачу быстробота (кое-где в выдаче кэши отличаются от выдачи в серпе)
3) Главное: есть ссылки на первоисточник (adfile) со страниц, заимствующих контент, что "легализирует" наличие таких сайтов в выдаче по запросу. Насколько я знаю, размещение статей - это легальный приём в продвижении.
Boris Baydenko добавил 24.07.2008 в 12:38
З.Ы. Может, я не упомянул что-то ещё, о чём забыл/не знаю...