Flector

Flector
Рейтинг
186
Регистрация
09.09.2006
dlyanachalas:
Лучше биржам при проверке ссылок отказаться от этих многочисленных url, link и пр. Есть ведь альтернативы.

вроде как уже сошлись на мнении - яндексу незачем учитывать всякие url и link, которые легко может накрутить, кто угодно, когда все базы сапы, ггл и прочих бирж есть в открытом виде.

один глупый человек сказал - остальные тут это повторяют.

если яндекс захочет - он прибьет все продажные сайты в течении суток.

но он этого не хочет - ему надо, чтобы на выдачу перестали влиять только ГС-сайты.

поэтому учитывать проверку индексации ссылок - это полная чушь.

вы всегда верите всему, что написано? надо хоть иногда своей головой то думать.

Zpro:
Если осталась только 1000 страниц в выдаче (от 6К) - это тоже АГС?

это может быть первым "звоночком". у меня на одном сайте 3-4 месяца падало количество проиндексированных - сначала в 2 раза, потом в 3 раза меньше, потом то добавлялось немного страниц, то опять убавлялось - но в конечном итоге АГС и 6 страниц в индексе.

imbalance:

Правда все новости - копипаст. Но лидер в своем регионе, в своей нише.
Сайт уже несколько лет под АГС
Вот пример - nur.kz
Хороший сайт, для людей, комменты активно пишут, но АГС, причем давно, еще до нового фильтра.

и что тут удивительного то? первые АГС накладывались в основном за копипаст, неуник, плохой рерайт, сканы и тому подобную шнягу.

и сайт в индексе яндекса, более 2 миллионов страниц. именно из-за трафика и ПФ.

чисто за копипаст он бы вылетел давным давно.

Seuz:
Всё как при АГС 17. Зачем столько постов плодить?
Даже причины попадания под АГС не изменились:
- некачественный контент
- внешние ссылки
- кривая структура
- отсутствие трафика
- вебмастер мать героиня, а в семье не без урода)

постов то много, но, видимо, прочитать их вы их не соизволили.

отсутствие трафика и плохие ПФ до АГС-40 яндекс вообще не волновали - уникальный текст на более-менее нормально сделанном сайте и никакие АГС такому сайту не грозили в принципе.

теперь же, отсутствие трафика и плохой ПФ это один из важнейших факторов среди тех сотен, которые учитывает АГС. отсюда и столько пострадавших сайтов, которые вообще никогда и никак не монетизировались. отсутствие трафика, по мнению яндекса, признак того, что сайт сделан под продажу ссылок.

проблема тут только одна - если у тебя нет знаний об оптимизации, то ты просто не доживешь до того момента, когда сайт начнет давать трафик - он раньше уйдет под АГС. этим самым фильтром яндекс за раз убил тысячи и тысячи сайтов начинающих веб-мастеров, которые и слыхом не слыхивали ни о какой сапе и понятия не имеют о том, что их сайты пропали из индекса яндекса.

наказывать сайты заранее это громадная ошибка.

в таком деле просто не может быть 100% точности, я сомневаюсь, что и 50% может быть.

слишком уж много яндексойды позволяют решать алгоритмам.

Silveo:
Давайте представим , что Яша выкинул сайт 21 числа, который приносил в сапе (700 рублей в день) свой пример привожу, сайт в як, дмоз

а чуть подробнее? страниц в индексе, трафик, количество проданных ссылок, тиц?

IceHell:
Это может быть АГС ?

АГС не выкидывает весь сайт, оставляет некоторые страницы. главную уж точно. поэтому у вас не АГС, а просто глюки вхождения нового сайта в индекс.

TMbay:
О том, что, например, Яндекс не всегда существовал, а в начале своего существования им никто и не пользовался. Были Яху с Альтавистой, и ничего они из рунета не индесксировали нормально и ими тоже никто не пользовался. А названия сайтов передавались из уст в уста. Это и есть - полезные сайты, которые передают из уст в уста. И такой полезный сайт вообще не зависит от ПС. Вот и вопрос: много ли здесь плачущих вебмастеров, которые могут похвастаться сайтом, который люди знают не из ПС, а из других источников? Сейчас и Гугл, и за ним Яндекс именно такие сайты и пытаются вычислять и поднимать в выдаче. Нужно делать сайты, генерирующие трафик, а не потребляющие его - и будет всем счастье! :)

вы вообще в курсе, что в конце 90-х сайтов было кот наплакал?

и почти все они участвовали в rambler top 100, собственно - это был чуть ли не единственный источник трафика, помимо закладок.

типичная ситуация - если надо найти что-то в интернете, надо было зайти в топ 100 от рамблера, найти интересующую категорию, а потом вручную ходить на каждый сайт и искать нужную инфу. потому что поиски от рамблера и всяких апортов выдавали полную муть.

собственно, именно поэтому все эти рамблеры и апорты так быстро сдулись, когда яндекс выкатил действительно хороший поиск. и бесконечные поиски по каталогу рамблера забылись как кошмарный сон. урлы сайтов передавали "из уст в уста" не потому, что такие крутые сайты были (кто в здравом уме назовет нынче куличики хорошим сайтом?), а потому что иначе ничего нельзя было найти.

вы топики то о новом АГС читали?

куча сайтов с уником под фильтр улетела.

теперь уник это не гарантия того, что сайт под АГС не попадет.

теперь трафик и ПФ намного важнее.

oleg_ws:
Интересно, а кто вам об этом сказал? Вы можете привести официальную информацию об этом?
Или у вам кто-то сливает инсайдерскую информацию об этом?

да вы задолбали уже троллить!

http://help.yandex.ru/webmaster/robot-workings/robot-workings-faq.xml#secret-data-access

Вы пытались скачать секретную информацию с нашего сервера. Что делать?

Робот берет ссылки с других страниц, а это значит, что на какой-то странице указаны ссылки на секретные разделы вашего сайта. Вы можете как закрыть их паролем, так и указать запрет для робота Яндекса в файле robots.txt. И в том, и в другом случае робот не будет скачивать секретную информацию.

http://help.yandex.ru/webmaster/recommendations/indexing.xml



Disallow. Эта директива используется для запрета от индексирования отдельных разделов сайта. С ее помощью необходимо закрывать от индексирования технические и не представляющие ценности ни для пользователя, ни для поисковых систем страницы. К ним относятся страницы с результатами поиска по сайту, статистика посещаемости сайта, дубликаты страниц, разнообразные логи, сервисные страницы баз данных и т.д. Подробнее об этом читайте в разделе помощи, посвященному файлу robots.txt.

а теперь, в духе ваших тролль-сообщений - дайте мне доказательство, что яндекс не только грузит запрещенные к индексации страницы, но и учитывает их в своих алгоритмах и дает за это АГС. все несколько страниц назад этого топика вы уже категорически утверждали - а теперь пытаетесь съехать с темы!

---------- Добавлено 23.11.2013 в 23:33 ----------

oleg_ws:
Кстати, еще как учитывают страницы в роботс

и через пару месяцев загруженных документов станет 0.

проверено неоднократно!

в сотый раз повторяю - если вы облажались и дали яндексу скачать запрещенную к индексации информацию, то выплевывать он ее будет долго!

но в конце концов он ее выкинет со своих серверов, даже упоминания о ней в ЯВМ не останется.

oleg_ws:
Где я говорил, что они учитываются в поиске? То, что их учитывает в отчете ВМ - представил доказательства

это называется - съехать с темы.

больше мне с вами не о чем говорить.

---------- Добавлено 23.11.2013 в 23:16 ----------

Segoro:
Это как Мэтт Каттс когда-то говорил в видео на счёт своих ботов, что запрещающие атрибуты которые например стоят в ссылках, дают понять роботу что эту ссылку учитывать не надо, но они не запрещают роботу перейти по этой ссылке и найти для себя что-то новое. То же самое и с Яндексом наверняка.

он это говорил о nofollow ссылках.

robots.txt совсем другое.

впрочем, гугл со спокойной совестью может игнорировать robots.txt - у меня на одной сайте уже 7-й год я не могу выкинуть страницы из индекса. исключаю их через гугл.вебмастер - они на некоторое время исчезают, а потом опять опять влетают в индекс. причем, при поиске гугл и говорит о том, что содержимое исключено из-за ограничений в robots.txt - но при этом все равно держит ссылки в индексе зачем-то.

а про яндекс - неважно куда там ходит яндекс. важно, что учитываться служебные и запрещенные к индексации страницы не могут. это вообще не имеет никакого ни практического, ни теоретического смысла. зачем алгоритмам яндекса учитывать запрещенные к индексации страницы?

у меня вот лично запрещенные в robots.txt страницы в ЯВМ никогда не загружаются, там исключенные это перемещенные и 404 страницы.

Всего: 1792