- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
лично мне кажется, что алгоритм Яндекса состоит из случайных систем, т.е. выбрано порядка 10 систем, например первая система - больше работает ссылочная масса потом все остальное, вторая - ПФ на первом месте, третья - возраст, ТИЦ и т.д. первично и т.д.
Так вот при каждом апе Яндекс случайным образом выбирает одну из 10 систем по ней и выставляет на позиции сайты. Поэтому нормальным людям, а тем более сео-шникам, которые привыкли к наличию логики, никак не понять ту самую Яшину логику.
Мои мысли...
no-comment, вы неправильный вопрос в стартпосте задали. Правильный - какова вероятность того, что я смогу купить ссылки, которые положительно повлияют на продвижение запроса?
лично мне кажется, что алгоритм Яндекса состоит из случайных систем, т.е. выбрано порядка 10 систем, например первая система - больше работает ссылочная масса потом все остальное, вторая - ПФ на первом месте, третья - возраст, ТИЦ и т.д. первично и т.д.
Так вот при каждом апе Яндекс случайным образом выбирает одну из 10 систем по ней и выставляет на позиции сайты. Поэтому нормальным людям, а тем более сео-шникам, которые привыкли к наличию логики, никак не понять ту самую Яшину логику.
Мои мысли...
Не маловероятно, кстати, поскольку на примере практически любых сайтов, в одном случае явно сайт попал в ТОП-1,3 по ссылочному признаку (хотя дизайн, юзабилити при этом могут уступать конкурентам), а в другом - благодаря качественному контенту, под которым в данном случае понимаю профессионально изложенный материал, максимально отвечающий конкретному поисковому запросу. Иногда же вроде-бы и ссылок обратных у сайта кот наплакал, и текста почти никакого - пара строчек, но "выезжает" за счёт дизайна или юзабилити, или же вообще возраста ресурса. И сколько угодно таких примеров.
Осмелюсь предположить, что ответственные сотрудники, отвечающие за разработку и поддержание алгоритма в работоспособности не знают его полностью, а лишь каждый отдельный сотрудник отвечает за свой кусок (условно кода). Иначе бы уволить того или иного программиста было-бы проблематично.
Хотя тоже лишь предположение. ;)
Странно, почему до сих пор никто не провел эксперимент? По идее надо взять пачку сайтов со стабильными позициями, по которым нет активных работ на сайте и закупить на них ссылок.
Да посмотрте вы коммерческие тематики и найдите там новые проекты без ссылок?
Работают и будут работать.