- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году 36,9% всех DDoS-атак пришлось на сферу финансов
А 24,9% – на сегмент электронной коммерции
Оксана Мамчуева
upyrj, врядли это имеет место быть, слишком рисковано для Яндекса и много более массовый падеж сайтов тогда бы был. Имхо, непот на некоторые ссылки (!) страницы гораздо более аккуратная и менее болезненная хирургическая операция ;).
10 раз, кажется, уже писал:
По моим наблюдениям, к непоту приводит
(1) общая ссылочная заспамленность сайта и
(2) принадлежность к сетке сайтов (хотя тут чаще вообще бан).
В общую ссылочную заспамленность сайта я включаю:
1. Линкаторы (параллельно с баном).
2. Большой каталог (обменных) ссылок.
3. Много внешних на внутренних (сапе, ксап и т. п.)
4. Много внешних на морде.
Естественно, точные критерии никому не известны.
Главное, что хочется подчеркнуть:
заспамленная морда — это всего лишь частный случай.
А мне видится, что это список, из которого правильный ответ ещё выбрать нужно. Ибо, непот Яндекс вешает на сайты, которые не хочет убирать из выдачи. Соответственно сеточные сайты, скорее попадают под бан,либо пессимизируются. Что касается ссылочной заспамленности, то тут также двоякая ситуация. После недавних событий многие линкаторы вновь вздохнули полной грудью. О чем это говорит? Я думаю о том, что алгоритм выглядит немного иначе, либо, что более вероятно на мой взгляд, такового алгоритма нет вообще.
Margo, за кликабельные ссылки иногда и на непотном сайте не грех заплатить. 8)
nickspring, imho, перечисленные условия достаточны для наложения непот-фильтра.
На практике некоторые сайты с такими грехами пока что избегают непота, что говорит, пожалуй, о сырости автофильтров.
Но число таких «счастливчиков» в последние полгода стремительно падает.
Priorat, кажется, в прошлом апдейте линкаторы обратно прищучили. По крайней мере, в отслеживаемых мной темах.
imho, перечисленные условия достаточны для наложения непот-фильтра.
На практике некоторые сайты с такими грехами пока что избегают непота, что говорит, пожалуй, о сырости автофильтров.
Но число таких «счастливчиков» в последние полгода стремительно падает.
В том-то и дело, что ДОСТАТОЧНЫ. Интереснее было бы узнать список необходимых.
Тут в более ранних обсуждениях поднималась тема автоматического непота. Так вот, к апологетам данной идеи, вопрос. По каким параметрам сайты заслуживают такого рода наказания? Иными словами, что анализирует робот, принимая решение о загоне в непот? У кого какие мысли? Просто пытаюсь соотнести приблизительные вычислительные возможности Яндекса и требуемую нагрузку при разных алгоритмах отбора. Хотелось бы узнать и ваше мнение.
А с чего мы решили что санкции применяются к донору? В ссылочном ссылка может не учитываться при не соблюдении определенных "правил" в анкор-файле и/или при связке "донор-принимающий".
А с чего мы решили что санкции применяются к донору? В ссылочном ссылка может не учитываться при не соблюдении определенных "правил" в анкор-файле и/или при связке "донор-принимающий".
Вот именно в этом направлении сейчас и калькулирую. Только жестких связей пока не обнаружилось.
Вот именно в этом направлении сейчас и калькулирую. Только жестких связей пока не обнаружилось.
аналогично, к примеру я смотрела занепоченные сайты, котрые сами отлично принимают ссылки со всех не занепоченных сайтов, четких связей в других случаях тоже не видно покачто
занепоченные сайты, котрые сами отлично принимают ссылки со всех не занепоченных сайтов
А что в этом удивительного? Непот-фильтр (отключение исходящего ссылочного) и пессимизация (отключение входящего ссылочного) — вещи вроде как ортогональные.
А что в этом удивительного? Непот-фильтр (отключение исходящего ссылочного) и пессимизация (отключение входящего ссылочного) — вещи вроде как ортогональные.
В том-то и дело, если трактовать непот с позиции озвученной oiL-k, то не совсем ортогональные.
nickspring, imho, перечисленные условия достаточны для наложения непот-фильтра.
В общую ссылочную заспамленность сайта я включаю:
1. Линкаторы (параллельно с баном).
2. Большой каталог (обменных) ссылок.
3. Много внешних на внутренних (сапе, ксап и т. п.)
4. Много внешних на морде.
Вас почитаешь, так все сайты по Яндексу должны быть без ссылок а-ля бумажная книга.
1 и 2 - стандартные условия на бан донора и не более.
3 и 4 - смотрите шире, есть куча сайтов, у которых много естественных внешних и внутренних, например, новостные сайты.
Повторюсь, что тут без тонкого "хирургического" вмешательства никак. Проще всего и логичней всего было фильтрануть блоки ссылок и именно это показывает статистика по 2000-м непотированным мордам, точней мордам, на каждой из которых как минимум 2 внешних ссылки не работают. Вот если на каждую ссылку у Вас будет по предложению на 50-150 символов, тогда без искусственного интеллекта не обойтись :)