Выход из-под АГС-17

Алексей Черкасов
На сайте с 25.01.2009
Offline
514
#71
rusik15:
Я думаю фильтр снимется автоматически при появлении ссылок на внутренние страницы сайта.

У одного из вылетевших сайтов беки почти исключительно на внутренние страницы. У одного из уцелевших беки почти исключительно на главную.

WebSerfing:
меня сеня статьи с Лиекса начали снимать на ГС из-за фильтра

Идите Вы со своим ГС... дорогу показать? Из-за таких, как Вы и все беды.

Отдаю даром хорошие книги — https://author.today/post/499024
rusik15
На сайте с 25.02.2009
Offline
64
#72

<!--WEB-->, а был трафик с внутренних страниц? ( у первого сайта).

В любом случае спорить ни с кем не собираюсь, вывод сделал из опыта и анализа вылетевших сайтов.

Алексей Черкасов
На сайте с 25.01.2009
Offline
514
#73
rusik15:
а был трафик с внутренних страниц?

Весь трафик был по НЧ, соответственно, весь на внутренние. С Яндекса было до 1000 хостов в сутки, все по НЧ: этот сайт - энциклопедия. Делается силами 30 человек. Теперь из-за всякого говна в индексе весь труд насмарку.

Яндекс борется с говносайтами (это не с сеоссылками борьба, а именно с говносайтами), а под раздачу попадают и СДЛ, сам бы лично побанил все ГС, если бы мог.

rusik15
На сайте с 25.02.2009
Offline
64
#74

ГС зло, согласен. 2 белых проекта тоже попали под раздачу. Но ведь когда сайт СДЛ вопрос разбана - дело времени. Нужно писать в Яндекс.

Алексей Черкасов
На сайте с 25.01.2009
Offline
514
#75
rusik15:
Нужно писать в Яндекс.

Уже написал. Но учитывая, что сапа тоже имеет место быть, вероятность удачного исхода 50 на 50.

makabra
На сайте с 10.08.2007
Offline
116
#76
Emili013:
Думаю все же критериев для наложения данного фильтра значительно больше чем 3.
Например у меня под этот фильтр попал мой блог (тот что в подписи), хотя он имеет достаточно качественный контент, интересен пользователям (т.к. они комментируют и ссылаются на меня), но он торговал ссылками (правда весьма скромно - 2/2/2). Кроме как на исходящие ссылки грешить не на что. Сейчас написал Платону - жду ответа.

Конечно не единственные. Однако все эти критерии, за некоторым исключением, можно сгруппировать как раз по группам "Качество контента", "Интерес пользователей к ресурсу" и "Нарушение п. 3.5 лицензии на поиск".

К примеру, при анализе "Качества контента" будет учитываться не только соответствие эталону, но и такие факторы как уникальность контента, соотношение уника к неунику и т.д. При анализе "интереса пользователей" будет учитываться качество доноров, характер доноров (блоги, форумы, корпоративные сайты).

seomaniac:

А сайт может быть интересен очень узкой группе пользователей. И для раскрутки ни месяца ни двух ему не хватит.

Именно этот фактор, похоже, новый алгоритм и не учитывает. Другими словами, алгоритм не учитывает тематику и специфику сайта, а также не способен отличить редко обновляемый корпоративный сайт от форума. Отсюда и косяки с вылетом ноормальных сайтов.

Mirrrorr:
В сети только литературный русский язык? Не смешите меня. Он еще хуже чем английский в Америке. В этом форуме пишут только филологи? Дневник Лебедева обречен на смерть?

Нет, на этом форуме пишут не только филологи, а разве данный форум имеет мало качественных бэков или он торгует ссылками? Или Вы считаете, что у ЖЖ Лебедева некачественная ссылочная масса?

Mirrrorr:
На счет специфических терминов точно не знаю, но не думаю что это имеет место. В яндексе ведь не идиоты работают, они должны понимать, что интернет это источник разной информации, или строители/медики/технари/сеошники (Пушкин вроде про весенние апдейты не очень часто писал) должны по подворотням общаться? Я не думаю, что контора, которая сумела собрать и отчаянно пытается классифицировать громадную базу сайтов не может собрать базу специфичных терминов и оборотов.

Ваши мифические строители могут общаться где угодно и использовать какие угодно термины. Но если они будут делать это на блоге созданном неделю назад и не имеющем ни одного качественного тематичного бэка и при этом еще будут ссылками барыжить, тогда попадут под обстре АГС.

Mirrrorr:
На счет ссылок. Человек, не знающий основ сео, может писать абсолютно новую и интересную информацию на своем сайте, а про ссылки вообще не думать. И не появится на этот сайт 40 ссылок в месяц, человек пришел, нашел то что ему нужно и все. Ну максимум зайдет еще, расскажет друзьям и напишет ссылки... вконтакте. Ведь большинство юзеров знают только Контакт/Одноклассники и Яндекс/Гугл, на которые и заходят со своих компьютеров "Самсунг", "Эл Джи" или "Самтрон". С 100 таких пользователей в день большого ссылочного не будет. Зато они бодренько отправляют смс и кликают по рекламкам :)
На счет расскручиваться и, особенно, быстро обрастет. Это вообще-то запрещено :)

Мдяааа... Т.е. человек ничего не знающий в сео, согласно Вашей точке зрения, сделает сайт, выложит на него бредоконтент и тутже начнет барыжить ссылками? Ничего не зная о сео... Ага... Самому не смешно?

Давайте рассмотрим процесс создания обычного блога обычным пользователем на тему путешествий. Вот он сел и написал статью о последней поездке в Таиланд и местных трансах. Заказал домен и установку WP у проффесионала, почитал инструкцию и опубликовал свою первую в жизни статью. Что он сделает следующим? Правильно, оповестит всех своих знкомых: "Друзья, смотрите! Я написал статью и у меня теперь есть свой блог". После этого кто-то из знакомых, скорее всего, разместит у себя в блоге ссылку на него. Но даже если этого не произойдет, то ничего страшного не случится. Дело в том, что на следующем шаге, наш пользователь начнет искать единомышленников. Делать он это будет на форумах, в блогосервисах, в сервисах закладок и т.д. Его блог будет постепенно обрастать ссылками и если он будет действительно интересен пользователям, то вскоре получит не хилую ссылочную массу. И даже если писать он будет не очень грамотно, то скорее всего под фильтр не попадет. Почему? Да потому что пройдет тестирование на "интерес у пользователей" и "спам".

И еще, господа, я двумя руками за дискуссию. Только если кто-то хочет мне возразить, будьте так добры, сначала как следует обдумайте сказанное мною, присмотритесь, оценить, найдите доводы "за" и "против" и уже после этого высказывайтесь по существу.

Вот, к примеру, в своем комментарии я не писал, что Яндекс использует один из трех факторов. Я говорил о комплексном подходе. А вы пытаетесь меня опровергнуть "по частям"... Может я не слишком ясно высказался по проблеме? Тогда представьте, что Яндекс ввел в свои алгоритмы "коэффициент говнистости" и этот коэффициент расчитывается как сумма трех других коэффицентов - качества сайта, траста (ссылочной массы) и спама. При достижении определенного показателя на сайт накладывается фильтр...

WebSerfing
На сайте с 02.07.2009
Offline
124
#77
<!--WEB-->:
Идите Вы со своим ГС... дорогу показать? Из-за таких, как Вы и все беды.

Не за таких как я! Думаете, что все будет белым и пушистым? У меня белые проекты попали под фильтр, а ГС использовался в качестве сайта, над которым проводились эксперименты... сами прекрасно знаете, что без опыта никуда!

Алексей Черкасов
На сайте с 25.01.2009
Offline
514
#78
WebSerfing:
а ГС использовался в качестве сайта, над которым проводились эксперименты

Ну ясное дело. Я почему-то сразу так и подумал. Эксперимент, сколько нужно продать ссылок в сапе и статей в лиексе, чтобы сайт забанили. Ну что - подсчитали, сколько? 😂

WebSerfing:
У меня белые проекты попали под фильтр

И в этом не сомневался. Наверняка один из "белых проектов" - как заработать в интернете. Эта тема очень популярна среди говностроителей.

WebSerfing
На сайте с 02.07.2009
Offline
124
#79
<!--WEB-->:
Ну ясное дело. Я почему-то сразу так и подумал. Эксперимент, сколько нужно продать ссылок в сапе и статей в лиексе, чтобы сайт забанили. Ну что - подсчитали, сколько? 😂

И в этом не сомневался. Наверняка один из "белых проектов" - как заработать в интернете. Эта тема очень популярна среди говностроителей.

210 статей и примерно 200 ссылок)

Mirrrorr
На сайте с 16.03.2009
Offline
119
#80

makabra, за барыжничество ссылками и бредоконтент я вообще ничего не писал.

В общем, я с Вами согласен. Вариант с коэффициэнтом вполне возможен. Но лично мне он не нравится, потому что это подразумевает "возможно".

Просто все за что яндекс раньше 100% банил нельзя было объяснить случайностью или незнанием при создании СДЛ. Нельзя случайно, делая сайт для людей, сделать ссылочный или поисковый спам, использовать копипаст или незаконные материалы.

Поэтому мне кажется, что и тут есть решающий фактор, который нельзя сделать случайно и который не может повлиять извне.

Нельзя случайно продавать ссылки. Нельзя случайно использовать копипаст/бредотекст/легкий рерайт. Это то к чему я пришел. На моих сайтах это оправдалось. Но сайтов у меня не так много и я не знаю не вылетит еще что-то.

На счет криков "У меня вылетел СДЛ", есть хорошая фраза: "То что для одного необузданная страсть для другого просто надоевшая жена".

Какие еще есть стопроцентные неучтенные показатели "сайта не для людей"?

Не сочтите меня параноиком, но мне кажется, что кто-то постоянно читает то, что я здесь пишу.

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий