- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Тренды маркетинга в 2024 году: мобильные продажи, углубленная аналитика и ИИ
Экспертная оценка Адмитад
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Непот, фильтр который накладывается на исходящее ссылочное, по большому счету, вебмастера и даже оптимизатора волновать не должен, с точки зрения Яндекса и Платона, потому как на позиции сайта это влияния не оказывает. Вот они и отвечают, что с сайтом все в порядке.
Вот если написать, что мне это мешает продавать ссылки, тогда ответ наверное будет, что да, фильтр наложен :)
Не признается Яндекс, что накладывает фильтр. Потому как испортит это положительный и позитивный образ Яндекса. Вот интересно на рол ру придет автонепот?:D
Вопрос в том, когда создан и можно ли его после этого считать новым ;)
спасибо за коллекцию ;) (пополню "чтобы было":D )
2Kost а разве это называется непот-фильтр? 🙄
Ответ интересен своей развернутостью, потому и запостил.
Я, например, такой ответ в течении нескольких месяцев получал раз десять. Это шаблон, причем не новый :)
Кстати, хочу добавить, что Платон абсолютно прав "Сайт ранжируется в соответствии с его релевантностью запросам пользователей...", вдумайтесь в эти строки. Над содержанием сайтов (текст, структура, код и т.д.) надо больше работать, делать по-настоящему релевантные страницы. Тогда и вопросов по фильтрам и т.п. возникать не будет. Подумайте, все просто, алгоритм - это и есть фильтр, который ранжирует страницы и выстраивает их в выдаче по релевантности. Поэтому фильтры, как что-то отдельно стоящее от алгоритмов, - это миф, скорее всего, придуманный оптимизаторами.
Есть у меня например сайты, некоторые страницы которых в первой десятке выдачи по среднечастотникам и некоторым высокочастотникам в своей тематике (около 10000 запросов в месяц). И прикол в том, что на эти страницы нет ни одного внешнего бэка. И страницы эти в выдаче уже не один месяц. А конкуренты вошкаются со своими бэками, да все никак перепрыгнуть не могут :) Скажите - фантастика. А Платон так не считает, все вполне реально работает. Я его спрашивал - "...не глюк ли это?", а он мне - "Сайт ранжируется в соответствии с его релевантностью запросам пользователей...".
Век живи - век учись.
За пару лет анализа факторов влияния на ранжирование и их взаимодействия я сделал вывод, что грамотно оптимизированный сайт не только для поисковиков, но и для людей, окончательно и бесповоротно влияет на стабильные и долгосрочные позиции сайта в выдаче. И меня трудно, даже уже и невозможно, в этом переубедить, проверено.
А влияние бэков на ранжирование постепенно уйдет и очень скоро. Или будет их тщательный разбор, например, из 100 бэков будут учитываться единицы, отобранные по по усмотрению Яндекса (его алгоритма).
в связи со скоростью ответа, +1 за шаблон, только шаблон из другой области
и ответ ни о чем и явно не про непот и исходящие ссылки =)
Такие ответы подтверждают, что то, что называется непотом - особенным фильтром не является. Особенности измененного алгоритма.
Есть у меня например сайты, некоторые страницы которых в первой десятке выдачи по среднечастотникам и некоторым высокочастотникам в своей тематике (около 10000 запросов в месяц). И прикол в том, что на эти страницы нет ни одного внешнего бэка. И страницы эти в выдаче уже не один месяц. А конкуренты вошкаются со своими бэками, да все никак перепрыгнуть не могут :) Скажите - фантастика. А Платон так не считает, все вполне реально работает. Я его спрашивал - "...не глюк ли это?", а он мне - "Сайт ранжируется в соответствии с его релевантностью запросам пользователей...".
Можно ли посмотреть такой сайт!
То что написано Выше для меня как-то неудобоваримо 😕
Если я правильно понял, без внешних беков в первой десятки 🙄
Чудеса да и только.
Судя по ответу, Платон вообще не в теме :D
То что написано Выше для меня как-то неудобоваримо
Если я правильно понял, без внешних беков в первой десятки
Чудеса да и только.
Бэков нет только на страницы которые в выдаче, а на сайтец его бэков больше чем у ближайшего конкурента разов в пяток эдак, я так думаю.
У меня тоже пару порталов есть с 200К страниц, и по определенным запросам некоторые страницы на первом месте. Но бэков то на них нет, 200К бэков получить - застрелиться. Но зато вот на мордаху под 1000 бычков стоит и с текстом абсолютно не тем который на страницах по поиску в топе.
Гы...😆
Это примерно вот:
- "...Сидоренко Владимир Иванович... изменить меру пресечения на подписку о невыезде..." Так у вас там на Петровке целая канцелярия для тебя такие справочки шлёпает, - хмынкул он...
Комменту в личке.
Да уж, это точно, - есть поисковый шум, есть поисковый глюк, а есть поисковый маразм.
😂