- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Сейчас прочитал про это странное слово, которое на этом форуме встречается чаще других. И вот что я подумал. Теоретически развитие фильтра должно привести к модернизации алгоритма, как вы считаете? То есть видим, что какая-то страница (сайт) явно искусственно продвигается, так блокируем не только доноров, но и акцептор на влияние любых внешних ссылок. Или не любых, а также, определяемые по каким-то признакам. А может такой механизм уже работает?
Сейчас прочитал про это странное слово, которое на этом форуме встречается чаще других. И вот что я подумал. Теоретически развитие фильтра должно привести к модернизации алгоритма, как вы считаете? То есть видим, что какая-то страница (сайт) явно искусственно продвигается, так блокируем не только доноров, но и акцептор на влияние любых внешних ссылок. Или не любых, а также, определяемые по каким-то признакам. А может такой механизм уже работает?
1. Тогда можно будет влиять на конкурентов.
2. Некое подобие - TrustRang. Правда пока не известно, включил ли его Яша...
И вообще, давайте порассуждаем, с какими фильтрами могут столкнуться сеошники в будущем. Поставим себя на место инженеров ПС. Они ведь явно не дураки. Что, кстати, наводит на странные размышления... ведь многие и многие методы нынешнего SEO довольно легко вычислить и понизить продвигаемые сайты, но этого не делают.
1. Тогда можно будет влиять на конкурентов.
Теоретически да, но рисковать для подлянки своими сайтами? Да и негативное влияние внешних факторов уже давно имеет место быть, IMHO.
И вообще, давайте порассуждаем, с какими фильтрами могут столкнуться сеошники в будущем.
Фильтр один - отсев влияния на поисковик :)
Как это делается - об этом весь форум ☝
Теоретически да, но рисковать для подлянки своими сайтами?
конечно, и целую сеть сайтов не жалко может быть на такое дело некоторым
Да и негативное влияние внешних факторов уже давно имеет место быть, IMHO.
не имеет, если иметь представление о ссылочной тошноте, почитайте исследование от ХРНС, пакости конкурентов легко повернуть себе в плюс
насчет конкурентов и т.п. новые подозрительные ссылки можно просто НЕ УЧИТЫВАТЬ, а не банить за них или понижать в выдаче. Результат: конкурента завалить нереально, а бюджет рекламодателя на ссылки в половине случаев идет нафиг, НО...это лучше, чем продавца или покупателя будут банить :-)
Parkan, конкретнее, пожалуйста :)
не имеет, если иметь представление о ссылочной тошноте, почитайте исследование от ХРНС
Кстати, жаль, что он ушел, очень толковый чувак был.
Кстати, жаль, что он ушел, очень толковый чувак был.
а куда ушел, что говорят? ))
Говорят, ушел в метапространство.