Прав, но не совсем. Непредсказуемость поисковика ограничена качеством выдачи. Если в результатах поиска будет бардак, то вскоре и контекстную рекламу показывать будет некому. :)
Interitus,
Я тут вот еще чего подумал. Дубли не проканают. Ведь вся тема первоначально строится на том, что по некому запросу есть некоторое количество примерно одинаково релевантных сайтов. Ясно, что релевантность рассматривается не только по тексту страницы, но и по всем остальным составляющим. Ссылкам, весу, каталожному описанию.
Так что придется, ради попадания в заветную двацатку (десятку, тридцатку, пятерку - не важно) с каждым дублем работать по полной программе. А это уже не так просто... тот же каталог Яндекса может стать практически непреодолимым препятствием. И деньгами это не решиться. Яндекс пожертвует разовой прибылью от каталога в пользу постоянной прибыли от рекламы, и не пустит дубли в каталог. А без такого фактора в группе лидеров (вот он, нужный термин!!!) делать нечего.
Не... можно возразить, что открывается подложная фирма, делается сайт с совершенно непохожим контентом и другим дизайном. Телефоны и мылы разные... короче никакой связи. НО! Директор видя расходы на поддержание нескольких таких "дублей" чешет репу и говорит: "Баста. Дешевле купить рекламу."
Реально?
Ace, ☝
1. Уже сделано. Насколько я понял, незаконные материалы убраны.
2. Нет.
3. Да, нужно написать аргументированное письмо (от имени владельца материала) в сапорт каталога. В принципе, при текущем состоянии сайта, его могут исключить и так, как не соответствующий описанию.
1 примечание. Никто не мешает хозяевам сайта взять другую карту и восстановить то, что было.
2 примечание. Если бы факт кражи материалов был своевременно зафиксирован юристом - можно было бы вести разговор о закрытии сайта полностью, или его передаче владельцу материала. Суд короче.
3 примечание. См. примечание к 1-му пункту. Как только сайт восстановят, никаких претензий со стороны каталога к нему не будет до появления законных хозяев карты.
😂 😂 😂
Хотя на самом деле, Яндекс найдет как подавить массу дублей. Снизять порог склейки, например.
Seliger, всё как раз наоборот. Денюшку гораздо эфективнее можно получать при перемешаной выдаче.
Пример - я продвигаю свой сайт. Он достаточно стабильно висит на первых местах по большинству необходимых запросов. Сайт продает товары (услуги). Фирма имеет прибыль с клиентов пришедших через поисковик. Фирма явно не бедная, поскольку может содержать сайт и меня. Фирма богатеет. Я (оптимизатор) тоже в доле. Поисковик не имеет ничего, поскольку я не нуждаюсь в покупке рекламы.
Косвенно, поисковик конечно деньгу получит, её заплатят те, кто не смог пробиться на первые места. Но это "бедные" фирмы. У них нет денег на собственный сайт и вероятнее всего нет денег и на рекламу в инете. Так что максимум - директ.
Теперь, предположим, что выдача тусуется случайно в пределах первой десятки. О потере качества говорить не приходится, поскольку по большинству запросов (а это чаще всего навигационные и информационные запросы комерческого плана) и так первые 20 мест предлагают одни и те же (или сходные) товары и услуги. Простейший пример - набившие оскомину кондиционеры.
Итак что в итоге: есть 20 фирм с неплохими сайтам, продающие кондиционеры. Цены и модели у всех примерно равны. Грубо говоря и релевантность запросу "кондиционеры" тоже равна. Не равны финансовые возможности фирм.
Что будет при случайной выдаче первой двадцатки? Однозначно, те, кто побогаче призовут штатного оптимизатора пред светлы очи генерального с требованием "ЧТОБ МЫ БЫЛИ ПЕРВЫМИ!!!". Каково решение? Естественно реклама. Спецразмещение, перетяжка, директ и пр. Фактически начнется аукцион ставок на рекламу. Поисковик катается в золоте, фирма практически гарантировано получает желаемых клиентов, оптимизатор (если он не дурак) становится рекламным агентом (агенством).
Опять же есть "НО". сли оптимизатор не только не дурак, но и совсем не дурак, то он станет окучивать низкочастотники и сходные тематики. Трафик и покупатель там не хуже. Продолжаться это будет до тех пор, пока по низкочастотному запросу не сложится та же картина, что и по частотному. Но с учетом большого количества низкочастотников - это будет не скоро.
Вывод - оптимизатор, если .... и так далее - не пропадет :) :) :)
Теперь согласен?
valerapopov,
Опять же -
Далее цитаты:
11. От чего зависит периодичность обновления сайтов?
Робот скачивает все страницы равномерно, частота переиндексации для разных страниц разная. Реже всего обновляются сайты, которые никто в поиске не находит. Для сайтов, которые представляют интерес для пользователей, обновление происходит чаще.
<...>Мы каждые несколько недель обновляем страницы, которые найдены пользователями хотя бы по одному поисковому запросу. Остальные страницы обновляются не реже, чем раз в три месяца.<...>
> Найди свой сайт в Рамблере и тебя переиндексируют...
Да, можно и так, но ходить через окно неудобно - рядом есть дверь.
Есть addsite.cgi, который с минимальными задержками перекачивает сайт.
(немного грустно) Хе-хе... действительно идеальная и независимая выдача... мечта Ильи... к тому и придет, помяните моё слово.
wolf, согласен, я был не прав. История с Агавой была давно, я уж и запямятовал, то ли обнулили, то ли снизилось сильно. Помню, что многих накрыло "волной снижения ВИЦ" :) и не напрямую с Агавы, а через вторые - третьи руки...
svift,
Что делать? Чиститься и каяться :)
"Я их чую... я их всегда чую... схорониться мне надо" (с)