makabra

makabra
Рейтинг
116
Регистрация
10.08.2007
Fibro:

Варез сайты многие под фильтром АГС-17, думаю что скоро вернутся, тк основные лишние вс удалил из комментов. На варезах стоит автопостинг, на каждом практически все разные шаблоны для граббинга.

Не правильно думает, ни-ког-да они не выйдут в индекс! Даже не мечтайте.

satellite-go:

Контент: 900 записей синонимизированного контента.

Я смотрю желающих выкинуть деньги на ветер меньше не становится... Ну-ну... Или Яндекс отказался от фильтра АГС-17?

basterr, не соглашусь... до последнего времени и сам так думал, но все чаще в SAPE стали попадаться доноры полностью отсутсвующие в индексе Google. Так, из пришедших вчера утром 1200 площадок - 18 напрочь отсутствовали в поиске Google...

basterr, проще и дешевле только до тех пор, пока ТС и Ко не начнут прессинговать своими какгбэ "творениями" индекс Google, как они это уже сделали с Яндексом.

Gromik, пожалуйста, начните с изучения грамматики русского языка. Это для начала. Потом найдите деньги хотя бы на оплату хостинга. Параллельно начните изучать основы веб дизайна, издательского дела, журналистики, PR, бизнеса, маркетинга и, особенно, SEO. Может тогда, если у Вас есть талант предпринимателя, что-то и получится.

P.S. Просили подсказку? Получите и распишитесь - "индексации страниц по пиару гуглы" не существует...

Mirrrorr, при наложении фильтра АГС-17 Яндекс не лишает вебмастеров возможности исправиться. Остающиеся в индексе 10 страниц - это форточка, в которую со времнем сможет влезть весь сайт. Без участия Платона. Только для ГС это форточка закрыта...

Emili013:
Думаю все же критериев для наложения данного фильтра значительно больше чем 3.
Например у меня под этот фильтр попал мой блог (тот что в подписи), хотя он имеет достаточно качественный контент, интересен пользователям (т.к. они комментируют и ссылаются на меня), но он торговал ссылками (правда весьма скромно - 2/2/2). Кроме как на исходящие ссылки грешить не на что. Сейчас написал Платону - жду ответа.

Конечно не единственные. Однако все эти критерии, за некоторым исключением, можно сгруппировать как раз по группам "Качество контента", "Интерес пользователей к ресурсу" и "Нарушение п. 3.5 лицензии на поиск".

К примеру, при анализе "Качества контента" будет учитываться не только соответствие эталону, но и такие факторы как уникальность контента, соотношение уника к неунику и т.д. При анализе "интереса пользователей" будет учитываться качество доноров, характер доноров (блоги, форумы, корпоративные сайты).

seomaniac:

А сайт может быть интересен очень узкой группе пользователей. И для раскрутки ни месяца ни двух ему не хватит.

Именно этот фактор, похоже, новый алгоритм и не учитывает. Другими словами, алгоритм не учитывает тематику и специфику сайта, а также не способен отличить редко обновляемый корпоративный сайт от форума. Отсюда и косяки с вылетом ноормальных сайтов.

Mirrrorr:
В сети только литературный русский язык? Не смешите меня. Он еще хуже чем английский в Америке. В этом форуме пишут только филологи? Дневник Лебедева обречен на смерть?

Нет, на этом форуме пишут не только филологи, а разве данный форум имеет мало качественных бэков или он торгует ссылками? Или Вы считаете, что у ЖЖ Лебедева некачественная ссылочная масса?

Mirrrorr:
На счет специфических терминов точно не знаю, но не думаю что это имеет место. В яндексе ведь не идиоты работают, они должны понимать, что интернет это источник разной информации, или строители/медики/технари/сеошники (Пушкин вроде про весенние апдейты не очень часто писал) должны по подворотням общаться? Я не думаю, что контора, которая сумела собрать и отчаянно пытается классифицировать громадную базу сайтов не может собрать базу специфичных терминов и оборотов.

Ваши мифические строители могут общаться где угодно и использовать какие угодно термины. Но если они будут делать это на блоге созданном неделю назад и не имеющем ни одного качественного тематичного бэка и при этом еще будут ссылками барыжить, тогда попадут под обстре АГС.

Mirrrorr:
На счет ссылок. Человек, не знающий основ сео, может писать абсолютно новую и интересную информацию на своем сайте, а про ссылки вообще не думать. И не появится на этот сайт 40 ссылок в месяц, человек пришел, нашел то что ему нужно и все. Ну максимум зайдет еще, расскажет друзьям и напишет ссылки... вконтакте. Ведь большинство юзеров знают только Контакт/Одноклассники и Яндекс/Гугл, на которые и заходят со своих компьютеров "Самсунг", "Эл Джи" или "Самтрон". С 100 таких пользователей в день большого ссылочного не будет. Зато они бодренько отправляют смс и кликают по рекламкам :)
На счет расскручиваться и, особенно, быстро обрастет. Это вообще-то запрещено :)

Мдяааа... Т.е. человек ничего не знающий в сео, согласно Вашей точке зрения, сделает сайт, выложит на него бредоконтент и тутже начнет барыжить ссылками? Ничего не зная о сео... Ага... Самому не смешно?

Давайте рассмотрим процесс создания обычного блога обычным пользователем на тему путешествий. Вот он сел и написал статью о последней поездке в Таиланд и местных трансах. Заказал домен и установку WP у проффесионала, почитал инструкцию и опубликовал свою первую в жизни статью. Что он сделает следующим? Правильно, оповестит всех своих знкомых: "Друзья, смотрите! Я написал статью и у меня теперь есть свой блог". После этого кто-то из знакомых, скорее всего, разместит у себя в блоге ссылку на него. Но даже если этого не произойдет, то ничего страшного не случится. Дело в том, что на следующем шаге, наш пользователь начнет искать единомышленников. Делать он это будет на форумах, в блогосервисах, в сервисах закладок и т.д. Его блог будет постепенно обрастать ссылками и если он будет действительно интересен пользователям, то вскоре получит не хилую ссылочную массу. И даже если писать он будет не очень грамотно, то скорее всего под фильтр не попадет. Почему? Да потому что пройдет тестирование на "интерес у пользователей" и "спам".

И еще, господа, я двумя руками за дискуссию. Только если кто-то хочет мне возразить, будьте так добры, сначала как следует обдумайте сказанное мною, присмотритесь, оценить, найдите доводы "за" и "против" и уже после этого высказывайтесь по существу.

Вот, к примеру, в своем комментарии я не писал, что Яндекс использует один из трех факторов. Я говорил о комплексном подходе. А вы пытаетесь меня опровергнуть "по частям"... Может я не слишком ясно высказался по проблеме? Тогда представьте, что Яндекс ввел в свои алгоритмы "коэффициент говнистости" и этот коэффициент расчитывается как сумма трех других коэффицентов - качества сайта, траста (ссылочной массы) и спама. При достижении определенного показателя на сайт накладывается фильтр...

_alk0g0lik_:
А вы бредите постоянно. Иногда лучше жевать, чем флудить.

Иногда лучше молчать, чем хамить... а то и по репе схлопотать можно...

_alk0g0lik_:

Нет. Но я думаю факт продажности ссылок это один из факторов наложения фильтра.

Вот именно, что "один из" и далеко не самый главный. Вам показать 100000 торгующих ссылками и прекрасно чувствующих себя в топе?

_alk0g0lik_:

Спросите у Яндекса.

А зачем его снова спрашивать? Он ведь все уже сказал! имеющий уши...

_alk0g0lik_:

1...Продажные ссылки
2...Низкокачественный контент (синонимайз, неуник, замена русских букв латинскими и.т.д)
3...Дубль страниц (например версии для печати).

Правильный только второй пункт... да и то частично... А вот что говорит Яндекс:

качества контента, интереса пользователей к ресурсу и соответствия сайта поисковой лицензии

1. Качество контента. Всего-то два слова и каждое на вес золота. Именно с головы гниет рыба... в нашем случае, именно с контента гниет весь сайт! Яндекс в первую очередь анализирует качество контента и если этот анализ не удовлетворяет алгоритм, то он переходит к более детальному разбору сайта. И Вы правы про синонимизированный контент, неуникальный контент и всякие заморочки с его уникализацией. Яндекс сравнивает контент сайта с неким эталоном и на основе этого сравнения принимает решение. Этим эталоном является литературный русский язык. Многие жалуются на то, что их персональные блоги влетели из индекса. А почему? Да потому, что большинство из них писать не умеют! Не соблюдаются не только орфография языка, но и морфология, и пунктуация. Сленг, мат, междометия и смайлы только усугубляют проблему. У многих вылетели сайты на скане... Еще бы. Возьмите учебник по строительству, загоните его в Word или ОРФО и посмотрите результат - масса жаргонизмов и профессиональных терминов, которые могут быть восприняты ПС как несуществующие словообразования. И дополняется это дело еще и очень сложными для анализа предложениями, которые, на первый взгляд, могут выглядеть несогласованными.

2. Интерес пользователей к ресурсу. Попытайтесь поставить себя на место алгоритма и его бота и представьте, что перд Вами стоит задача определить интерес пользователей к тому или иному сайту с высокой точностью использую только подручные средства. Что Вы станете анализировать? Как пользователи Сети проявляют свой интерес и благосклонность к другим сайтам? Правильно, с помощью ссылок! 99.9999% клепателей ГС никогда не тратили денег на покупку бэков! 80% ГС не имеют никаких беков вообще! Ну может только с memori... Возьмите сайт ТС, загоните его в Yazzle и посмотрите, что он вам покажет...

3. Нарушение п. 3.5 лицензии на поиск. После анализа первых 2-х пунктов алогритм проверяет сайт на спам-ссылки. И если первые два испытания сайт провалил и на его страницах найдены продажные ссылки... в бой идут гранаты и от вашего ГС отсаются ошметки, разбросаные по всему полю брани...

makabra добавил 30.09.2009 в 19:20

Fast3r:
рискну предположить что в этой загадке речь идет о бэках? если так то почему под фильтр попадают и молодые сайты, априори не способные за короткий срок набрать ссылочную массу на внутряки?

Потому, что интересный (sic) сайт априори очень быстро обрастает естественными ссылками. Месяца ему точно хватит. А если за 3 месяца на сайт появилось только 40 ссылок, значит сайт пользователям не шибко интересен. Да и сайт, который сделан для посетителей, а не для продажи ссылок, будет обязательно расскручиваться владельцем и, как следствие, быстро обрастет бэками.

HungryFoerster:
А вот не так. Он НЕ наложил фильтр на 10 страниц с конкретными... угадайте с трех раз :)

5+ Однако суть вещей это не меняет.

HungryFoerster:
Не сильно сложная угадайка, зато как интересен вопрос, а надо ли гнаться за этими признаками?!

А вот это уже зависит от того, для каких целей делался сайт. В Яндексе отлично знают, что выполнение требований, необходимое для снятия фильтра, сделает поточное создание ГС не рентабельным. Бизнес покинут десятки и сотни проходимцев. Убогих "сайтов" созданных за 5 баксов только лишь для продажи ссылок станет в тысячи раз меньше. Думаю, Яндексоиды именно к этому и стремятся.

makabra добавил 30.09.2009 в 18:50

lan77:
процесс домино пока только начался, выпадают прямо на глазах, думаю после 10 стр. будет 0 и запрет к индексации, тенденция такая уже прослеживается.

Неа, не будет... Я еще прошлогодней "движухой" научен и меры принял. Один сайт уже вывел из-под фильтра, второй - в процессе.

_alk0g0lik_:

Этот вопрос задайте Яндексу.
Подумайте.
Это тоже вопрос к Яндексу, а не ко мне.

Я уже заметил, что Вы предпочитаете воздерживаться от мыслительных процессов...

_alk0g0lik_:
Это не моя логика, а логика Яндекса (см. ответ Яндекса выше). У меня тоде остались в индексе страницы с продажными ссылками.

Блин, что в лоб, что по лбу - все едино... И теперь Вы думает, что если на новом домене не продавать ссылки, то под фильтр он не попадет? Вы хоть замечаете, что сами себе противоречите? С одной стороны вы считаете, что фильтр наложен за продажу ссылок, а с другой сами признаете, что в индексе остаются страницы с продажными ссылками! Почему Яндекс не против того, что Вы продаетете ссылки с этих конкретных 10 страниц?

Ладно, попробуем достучаться с заднего хода... Какие факторы учитывает алгоритм Яндекса при наложении фильтра АГС-17? Назовите хотя бы 3.

you_too:
А метрика или директ есть на сайте?

Нету.

Всего: 1660