Подошел к выводу, что алгоритмы яндекса фуфел

German V
На сайте с 13.04.2012
Offline
113
#41
ostapx1:
Какая поисковику вообще разница - копипаст контент или нет.

Вроде бы копипаст всегда злом считался, или как?

---------- Добавлено 05.05.2012 в 10:50 ----------

promomaniac:
Согласитесь, как-то совсем уж глупо создавать проект и думать, что ПС сами разберутся, что им надо индексировать, а что нет.

Тогда получается, что ПС не анализирует то что собирает с сайта, сравните полезность пустой страницы "Восстановить пароль" которая в индексе и описание товара, которого нет в индексе. Откинем, что описание такое же как и у других сайтов, продающих то же самое. Что из этого больше для людей?

ostapx1
На сайте с 20.08.2009
Offline
99
#42

Это только один из факторов ранжирования. Есть масса примеров, когда копипаст, прокачанный ссылками ранжируется высоко.

Существует вполне логичное мнение, что необходимость в уникальности для поисковиков - это миф. Потребность в уникальности изначально возникла, чтобы не было проблем с авторскими правами. Лично я это мнение разделяю.

promomaniac
На сайте с 10.03.2011
Offline
160
#43
German V:

Тогда получается, что ПС не анализирует то что собирает с сайта, сравните полезность пустой страницы "Восстановить пароль" которая в индексе и описание товара, которого нет в индексе. Откинем, что описание такое же как и у других сайтов, продающих то же самое. Что из этого больше для людей?

Да причем здесь полезнее или нет?

Нужно просто корректно указать Яндексу, что нужно индексировать, а что нет. Это совсем несложно.

Вам ведь не легче от того, кто виноват в том, что сайт плохо индексируется - вы или Яндекс. По большому счету результат в обоих случаях один. И вам, как владельцу вашего проекта, надо думать, в первую очередь, о том, как исправить эту проблему, а не обсуждать несовершенство "алгоритмов".

Тем более, что вам указали, в каком направлении нужно двигаться.

Меня смущает, что колода плохо перетасована, но лишь до тех пор, пока мне не придет хорошая карта. © Джонатан Свифт.
dlyanachalas
На сайте с 15.09.2006
Offline
693
#44
German V:
А чем ПС не нравятся дубли, ведь содержимое страницы одинаково и выбрать на свое усмотрение какую страницу с одинаковым контентом засунуть в поиск ничего не мешает. Может дело в экономии времени на обработку кучи ссылок? Кто знает, поведайте.

Вы задаете очень правильные вопросы ☝ Почему Яндеукс не отсеивает такие страницы шинглами, а предпочитает банить целый сайт, это очень хороший и правильный вопрос.

Ведь дубли страниц как в раз создают не профессионалы сео, обычные веб-мастера, которые даже не понимают, что так делать "нельзя". :)

Cell
На сайте с 09.10.2007
Offline
552
#45
dlyanachalas:
Ведь дубли страниц как в раз создают не профессионалы сео, обычные веб-мастера, которые даже не понимают, что так делать "нельзя".

Если человек "веб-мастер", то он примерно должен понимать, что можно делать, а чего нельзя.

А если берется делать сайт на коленке, да на бесплатном движке, не изучив хотя бы основные моменты работы с этим движком - то никакой он не веб-мастер.

А говноклепальщик. Чьим сайтам место в бане.

The Piper at the Gates of Dawn.
dlyanachalas
На сайте с 15.09.2006
Offline
693
#46
Cell:
Если человек "веб-мастер", то он примерно должен понимать, что можно делать, а чего нельзя.

А если берется делать сайт на коленке, да на бесплатном движке, не изучив хотя бы основные моменты работы с этим движком - то никакой он не веб-мастер.

А говноклепальщик. Чьим сайтам место в бане.

Вы знаете, а я согласен! Нефиг всякие веб-сайты чужие индексировать. У меня на ДДЛ никаких дублей нет, велком, Яндекс! ☝

German V
На сайте с 13.04.2012
Offline
113
#47

Кстати я проанализировал свои действия начиная с момента запуска сайта и заметил следующее. В конце октяря, когда я выставил сайт, он в течении 2 недель проиндексировался яндексом и примерно к середине ноября в индексе было 992 страницы. Они заняли какие-то места в выдаче, тогда я не мониторил их, они повисели там какое-то время, и в конце ноября уже я писал Платонам о том, что в индексе осталось всего 53 страницы. Там был ответ - что наши алго устроены так, чтобы давать наиболее релевантные и уникальные. Получив такой ответ, самый простой путь это в Директ, что я и сделал в поразмыслив немного и в середине декабря заработал директ. Который успешно сосал из меня бабло до середины марта. В марте, когда я начал борьбу с дублями, отключив директ в поиск вернулось 220 страниц, которые также повисели 2 недели и часть их опять выпала. Но при этом часть из них осталась 60-70, я не делал с ними ничего в плане текста, они по прежнему висят в поиске. Так вот к чему это все? К тому, что может это тонкий намек - может еще поЯдиректишь немного? ))))

Многие зачастую забывают, что яндекс это коммерческий проект, а коммерческий проект должен зарабатывать.

MG
На сайте с 19.01.2010
Offline
17
#48

Скажу в защиту ТС.

Почему-то многие так и не поняли сути сообщения, а ведь суть тут заключается в том, что Яндекс молодые ИМ (интернет-магазины) не ПУСКАЕТ в индекс. И причина, как мне кажется, здесь проста и банальна.

Существуют интернет-магазины и псевдомагазины. Очень часто, контент для псевдомагазинов по "заточенности" под ПС лучше, нежели реального магазина. И создается такой (псевдо) - гораздо быстрее, тем самым просто захламляя выдачу. Страдают от этого все: пользователи (не могут сразу попасть в настоящий магазин, а попадают на партнерку, MFA, MFS и т.д.; страдают магазины - они вынуждены платить партнерам, которые находятся выше их в выдаче по модельным (или не модельным) запросам; страдают ПС, вынужденные индексировать в разы болше страниц и тратить ресурсы на них; ратсет штат программистов, улучшающие алгоритмы, придумывающий фильтры и подобную шнягу, из-за которой в нередких случаях страдают (пусть эпизодически) вполне нормальный сайты.

Так вот. Какой бы вы придумали способ отсева псевдомагазина от реального? Мне кажется, яндексоидам пришла простая мысль в голову. Коли ты назвался интернет-магазином, то полезай под фильтр, который тупо выжидает время (по моим наблюдениям полгода ступор). Благодаря этому фильтру страницы попадают в инедкс 2-го уровня, очень редко, почти ничего, из 3-го уровня. И это на протяжении, повторюсь, полугода. За это ремя реальный магазин не ывдержит и пойдет в яндекс-маркет. Ну а там магазины реально проверяют, знаю, имел опыт работы. Даже реальные магазины из-за своих енчестных уловок вылетают оттуда навсегда без права восстановления (может уже изменили, может восстанавливают).

После такого срока проверки, начнется индексация контента 3-го уровня (как правило это карточки товаров) и глубже.

Старые магазины (псевдо и реальные) - они приняты в качестве проверенных из-за возраста, однако, это не защищает их от внезапной, внеплановой проверки или же проверки по плану. то есть, старый магазин, который нормально индексировался, но заброшен и не торгует уже товарами, рано или поздно начнет уходить вплоть до АГС или бана.

И заметьте, здесь никаких космических трехсотмегабайтных формул ранжирования нет. Тупо и просто. Ну а плюсы - коммерческая выгода Яндекса.

Подводя итог, замечу, что если хочешь нормалной индексации (не топов) магазина, нужно избегать характерного семантического ядра интернет магазина (купить, интернет-магазин, корзина и т.д.). то есть, если изначально создавать псевдомагазхин под партнерку, к примеру, то лучше всего семантику выбрать другую. Само наличие на сайте карточки товара - не говорит о тм, что это магазин. Это может быть сервис собирающий отзывы (вполне СДЛ), рейтиги товаров, обзоры, тесты...

Кроме того, если есть прекрасно индексирующийся сайт, даже с посещалкой, без фильтров, пусть даже с сапоссылками - будет долго висеть в индексе яндекса и получать трафф. но, если выложить поределенное число карточек товаров и назваться интернет-магазином - то сразу этот фильтр. Вопрос только в том насколько изменяются перовначальыне тематики и насколько осуществлен приросто страниц. Если тематики не исказились, прирост мизерный и слова ИНТЕРНЕТ-МАГАЗИН, КОРЗИНА, КУПИТЬ - не преобладают на всем сайте (пр условии, что их изначально не было или было мало) - то все будет пучком, фильтра не будет, если же тематики изменились (скажем, ыбл сайт о стиральных машинах 1000 страниц, а добавли раздел с ХОЛОДИЛЬНИКАМИ в размере 2000 страниц и слова маркеры, присущие в ИМ стали преобладать - то сразу фильтр. Причем, все страницы, которые раньше были в индексе могут не участвовать в поиске, хотя XML яшкин будет их показывать в общей куче, а в индексе будет как раз те преславутые страницы 2-го уровня, не несущие никакой толком пользы и слабо ранжирующиеся.

Сему мораль - такие фильтры никому пользы не приносят. Не полный индекс (есть страницы у тебя, кна которых может ерально важная информация находиться, очень субНЧ, но они не в индексе и ползователь на них не попадет). Малый бизнес поставлен в такие рамки, что ему придется (почему - не понятно) платить маркету за рекламу, хотя цена, возможно, будет очень интересной для покупателя. А чтобы развиться начинающему магазину, ему придется:

а) потратиться на создание магазина (заказать, нанять программера - не важно, в люом случае это недешево)

б) башлять маркету полгода за рекламу, причем, реклама должна быть с пореденным CTR, иначе твоары снимутся с публикации

в) за время рекламы выдержать проверку ассессоров маркета (а она не прекращается, все время ведется, да и способы подстать налоговикам, вплоть до реальной сделки)

г) "развивать сайт" - как еркоменует яндекс, то есть оплачивать работу копирайтеров, терпеть воровство своего контента или же каждую статейку, описание или что-там еще полезное - закидывать в соответствующий раздел вебмастера, для закрепления авторства.

Вообщем, накладынх расходов будет столько, что не получится по такой схеме малому бизнесу сделать свой магазин на приемлемых условиях.

выход может быть только один - наплодить несколько магазинов, один, возможно, будет в обход фильтров, но не одинаковых, а отличающихся по структуре, урлам, текстам, приницпам - в обшщем. макимально отличающимся. ВОзможна и такая ситуация, что на одних магазинах будет одна часть приносить желаемый эффект, на других - другая. ОДнако, это нецивилизованный подход, а адптация к текущем правилам, которые диктует яндекс (с большой буквы специально не пишу).

Ну а защитникам яндекса скажу, в принципах, изложенных яндексом, о качетсвенности сата есть пу нкт, под который попадает 90% сайтов (на вскидку, может и больше, скажем, 99%). А именно:

Думайте о пользователях, а не поисковых системах. Стали бы вы создавать сайт, страницу или ее элемент, если бы не существовало поисковиков?

Я могу сразу сказать - нет, не создавал бы. По визиткам зайдет 10 человек в месяц (в случае малого бизнеса, когда все начинаю). Маржи с продаж не хватит покрыть даже расходы. Да и поставновка вопроса дурацкая. можно продолжить: создавали вы бы сайт, есил бы небыло компьютеров. интернета. клавиатуры и мышки?

На счет качественных страниц - посмотрите что в индексе яндекса и в каком кол-ве самый главный ГС - одноклассники. Меня это просто возмущает. Никакого ПОЛЕЗНОГО контента. Это СДЛ? я бы поспорил. Это СДБ (сайт для бездельников).

Да и примеров таких можно привести не единицы.

Кроме того, у меня лично есть сайты, которые сгенерированы за 15 минут, принсящие трафф и нехило, очень нехило сидящие по ВЧ запросам. Выше была только википедия. Более тог, скажу, никакого уникального контента там не было. Траста - нет, ссылочного - нет. Пользы - нет. Сейчас ситуация немного изменилась, не топ 2-3, а топ 10 - но факт остается. говносайтище в топ 10 и сидит там ГОДАМИ.

Не сношу их только потому, чтобы посмотреть когда же все-таки накроет их яндекс. Правда, гугль тоже не сильно их относит к ГС, тоже и траф дает и ранжирует как-то не смым худшим образом.

Так что, алгоритмы ПС в реальности больше похожи на простые эмпирические форумлы, подобранные вручную или программным спообом (не важно), которые более-менее адекватно работают только в определенных условиях.

di_max
На сайте с 27.12.2006
Offline
262
#49

dlyanachalas, если у долбомикстера 99% сайта - дубли, то фигли над ним парится яндексу?

---------- Добавлено 05.05.2012 в 11:35 ----------

MarquusGun:
Маржи с продаж не хватит покрыть даже расходы.

До и после - галимый флуд многабукф. Соль - я выделил.

3 года на выход на самоокупаемость - не хотишь?

Нет - не лез в бизнес.

Согласен, о пол мифических года - нифзачет.

// Все наши проблемы от нашего не знания...
German V
На сайте с 13.04.2012
Offline
113
#50
MarquusGun:
Так что, алгоритмы ПС в реальности больше похожи на простые эмпирические форумлы

- Применяемые к молодым ИМ, при этом основной целью ставится заработать на них, если ИМ развалится в течении года значит туда ему и дорога, если выживет, значит получит не плохие результаты в ранжировании и ему будет дано клеймо "ТЕБЕ ЖИТЬ"

Это и правильно, если ты не способен удовлетворить пользователей ПС - зачем ты нужен. Но чтобы понять это, нужно время, полгода, год. Это очевидно, что создавая ИМ я ставлю перед собой цель заработать, так почему бы не заработать всем? В том числе и Яндексу, когда есть такая возможность, при этом решение остается за ним. Мой ИМ находится в его руках !!!! И он в праве решать буду я зарабатывать или мы будем зарабатывать вместе.

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий