- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Объясните как с одной покупной морды половино ссылок индексируется Яндексом, а другая нет!
Лично я чего то в затруднение это объяснить после этого апдейта?😕
Думаю большинство согласно, что в выдаче появилась бессистемность. В этой связи два варианта - глюки или мы эту систему не увидели.
Если причина в последнем, то эта система гениальна. Но мне в это мало верится... Наверно глюки.
Хотя, если бы я был бы "у руля", то скорее всего делал бы "пробные апдейты" через раз, чтоб народ успокаивался...
Ну и еще есть идея. Мне она даже нравится. Если Яндекс решил вести борьбу с оптимизаторами на смерть (хотя зачем это?), то пострил алгоритм так:
Делает апдейт по старому алгоритму, выбирает сотню (две сотрин, зависит от конкуретности) и потом ранжирует в случайном порядке :).
И это ранжирование сохраняет до следующего апдейта с лотерейным распределением мест.
Конесно смешно выглядит, но!
1. В конкуретных запросах боее справелдливо
2. Оптимизация отдыхает и рынок возвращается к стандартной рекламе...
ЗЫ: ногами не бить :)
Делает апдейт по старому алгоритму, выбирает сотню (две сотрин, зависит от конкуретности) и потом ранжирует в случайном порядке .
И это ранжирование сохраняет до следующего апдейта с лотерейным распределением мест.
В таком случае придется делать сайтов по 50-100 чтобы захватить как можно больше внимания, прдставляешь что будет?
🚬 Ладно главное не отчаеваться. Сегодня гляжу даже в аськи все не активны стали - молодцы!
Так это, вроде как уже давно многие строчат :)
Да, и здесь есть проблемы. Но если речь об одной фирме, то по телефонам, адресам, ссылкам склеивать будут... В общем борьба с оптимизацией возможно окажется проще...
Тем более, что вИЦ никто не отменит, просто будут градации не 1,2,3.., а 20, 100, 1000 (а в их пределах слачаность). И делать 50 сильных сайтов, чтобы они крутились бы в 1000 таких же будет не так-то просто...
miki, ну понимаете, заходит яндекс и смотрит - ага, ссылки продажные. Учитывать не будем...
P.S. другие с этой страницы он просто еще не распознал 🚬
типа шутка
Все мы любим скрытый текст. Ля-ля-ля.
Кстате советую просмотреть у себя на сайтах проиндексированость ссылок и притом каждой так как у меня через одну и не понятно по какому принципу
miki, может дело не в индексации ссылок, а в их хранении 🚬 ...
Дело в том что у меня только 30% сайтов завалилась, а у некоторых и поболие - так что я сильно не переживаю