XPraptor

XPraptor
Рейтинг
333
Регистрация
15.10.2004
Должность
Web Soft Developer
Интересы
Programming

НА самом деле все намного сложнее с продажными мордами чем прсто попытаться отследить несколько исходящих с морды. Были у меня несколько сайтиков (наверное и до сих пор какие то остались в исходном коде) на которых представление горячих новостей, полезных ресурсов (не только с морд) было реализовано системой банерооборота (допускающей и текстовые блоки).

Так вот, там конечно все линки сразу не могли уместиться на предоставленных местах и просто ратировались по 3-5 штук за каждый запрос страницы. И это не были продажные (и даже обменных среди них было не более 5%) ссылки, это были реальные советы на сайты и новости.

Ваше предложение забанило бы такой сайт на раз, а это не правильно, ничего не продается на нем и не меняется для накрутки, но ссылок просто куча разных будет зафиксировано.

И как тут определишь резать или нет? Да никак. Придется резать но с каким либо коэфициентом, потому как для Яндекса всеравно это не хорошо (и им тоже всеравно что это хорошо для пользователей).

ixa - в некоторых моментах соглашусь с тобой. Качество выдачи - смешное заявление от Садовского, когда реальная выдача совсем в дауне от однострочных упоминаний (объявлений может быть) до чистых доров, грабящих в автомате контент.

Я в последнее время в Яндексе сам не могу ничего найти когда нужно, а что говорить про среднестатистического пользователя. Уточняющие запросы либо совсем выбивают нужные сайты из выдачи, либо без них выдача из одних доров.

Но тема не об этом, а об автоматических непот-ах, которые абсурдны как таковые.

тут Миха с гудвином сорвались в бесполезный спор переходя на личности, и отклонились от темы топа, в котором сказанное Садовским так никто реально и не смог соотнести к явному "да" или "нет" автоматическому непот-у.

Если исходить из выдачи - то можно подумать что скорее всего "да", и при чем "да" абслоютно не в ту сторону, в которую нужно бы резать ссылочное дорам, а режется ссылочное нормальным сайтам. Если исходить из здравой логики и высказываниям Яндекса - то скрее "нет", но ручной непот при этом скорее всего "да". И если это так, то получается что вся текущая ситуация с сылочным, это не действия непот-а, а как сами товарищи из Яндекса говорят: Улучшение алгоритма и повышение качества выдачи.

Только странное ИМХО это улучшение у них получается.

А вы наверное думаете что таких событий в нете найдется всего одно? Да тысчи - и кого размещать из них?

SerK:
Не пойму в чем проблема-то?
1) Как я сказал выше, использовать другие поисковики (если данные страницы не запрещены в них к индексации). При этом неважно, интересен нам этот поисковик или нет. Главное, что бы сайт индексировал.
2) Написать (или найти) парсер сайта, который будет ходить по всем внутренним ссылкам на всех страницах сайта. Так нельзя найти "висячие" страницы, на которые не ссылаются другие страницы сайта. Хотя на 90% сайтах количество таких страниц стремится к бесконечности. :)

Или я чего то не догоняю, или ыв не объяснили как положено. При чем здесь другий поисковики? Если у меня на сайте от 20000 до 60000 страниц - а яша показывает проиндексированных 15000 как узнать какие не проиндексированы? Только получить весь список проиндексированных а это извините автоматическая генерация запросов и бан немедленный и надолго.

MASe:
а ВИЦовые ссылки, да еще по нужному анкору в 99% случаев - только за деньги вот это и несправедливо... а что делать...

Дык а как вы себе представляете не за деньги? У таких сайтов просто места не хватит всех желающих разместить, да и после трех четырех блоков они перестанут быть интересными для размещения и уже не смогут никому ничего поднять.

Segey:
Два раздела или сайта с таким объемом? У меня тоже есть, только сомнительна ее полезность.

Так а я про что толкую? Если что то нужно выдвинуть из этой массы - сателиты. Иначе большинство просто не заметят инфы в таком объеме. И это согласитесь не дор и не для продвижения самого сайта а именно для людей (пусть и для своей пользы тоже).

Утилиту то написать раз плюнуть (мне по крайней мере). Но вот как ее заюзать то? Яша и Гоша точно забанят на третьей минуте, а остальные поисковики, ИМХО не интересны. Либо для уворота от бана придется юзать генерацию реалности действий пользователя - а это медленно очень, для малых сайтов можно использовать, но если страниц более 1000, то уже не оправданно долго.

Segey:
У вас есть столько полезной информации, что минимум 3000 разделов надо что бы ее как-то разделить? А еще и там десятки уровней?

Есть. И не один и не два даже.

Parkan:
Не обязательно делать для каждого направления свой сайт. Для этого есть поддомены.
И они будут прекрасно индексироваться Яшей. И всем будет понятно, что они относятся к основному сайту, а не накручивают его.
Хороший пример - auto.ru

А я и не говорю что для каждого. Только для очень нужного и то что вы в обязательном порядке (для своей ли прибыли или пользы посетителей) хотите донести до пользователей. Все выносить - 3000 - 5000 разделов в сателиты, мне трудно представить такое даже, это получатся 100% доры, потому что качественно на них нельзя будет разместить нужную информацию.

wolf:
Вот только не надо обманывать самого себя, утверждая, что сателлиты делаются для людей. Ок?

Еще раз повторю - сателиты не дорвеи! Легко отличить дор это для робота или сателит для людей, и конечно помогающий основному сайту. Но основная его цель именно донести до людей инфу, а помочь сайту двинуться - вторичная задача.

Всего: 3323