- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
К слову, кто думает, что у гугла не вылетают страницы, тот либо с ним никогда не работал, либо клинический идиот. Там те же самые баги, только воплей на форуме гораздо меньше, ибо во-первых, с ним очень мало школьников и студентов, а также других психически активных индивидуумов работает, а во-вторых к нему приковано гораздо меньше внимания.
Миха, ну стабильнее Гугл, как ни крути. Да, там во время апдейта тоже можно свалиться в задницу, могут странички повылетать нафиг или в сапплементал. Но если ты там не куролесил, аки дурной, все очень быстро возвращается на круги своя. У меня 2 сайта в топе инглиш-Гугла сидят по некоммерческим, но очень конкурентным в плане количества страниц запросам. Так я за полгода уже научился чуть ли не с точностью до 1-2 позиций предсказывать изменения при проставлении на них той или иной ссылки) И трафф у меня там стабилен - в выходные на 30% меньше, чем в будние. И любые отклонения - это стопудовый признак апдейта, после чего все уже на следующий день в норме. Очень похоже на Яндекс? )
kevindark, а ты попробуй на многостраничных (>>1000) проектах просто посчитать количество проиндексированных страниц. Оно будет изменяться постоянно, и очень значительно.
Miha Kuzmin (KMY), а мне если честно плевать на циферки, которые я вижу, вводя оператор site: до тех пор, пока это не отражается на траффике. А обычно это и не отражается, несмотря на скачки в цифирях (скорее всего, связанно с запросами к разным ДЦ). А вот когда уже трафф валится, равно как и количество страниц в индексе, нужно искать причины, просто так ничего не бывает)
kevindark, угу, с таким подходом можно пойти в яндекс с транспарантом "верните мои страницы !". В случае с гуглом полностью аналогично.
Miha Kuzmin (KMY), не аналогично. В Гугле есть множество ДЦ, чем и объясняется разница в количестве проиндексированных страниц. У тебя бывал бред с выпадением сайта на два три апдейта, как в Яндексе? Без причин, равно как и последующий возврат. У меня вот не бывало)
kevindark, мы про глобальные апдейты или про так же как и яндекс ? (1-3 в неделю) Если первое, то было пару раз. Если второе - да постоянно.
p.s. больше всего меня рамблер с некоторыми сайтами убивает. Оставляет в базе 10-20 страниц, и все. Пишешь в саппорт, они в ответ: "да, знаем, есть такая куевая проблема, через пару недель все будет ок". Раньше эта пара недель на пару-тройку месяцев растягивалась, сейчас почаще он апдейтит, идет получше :)
Ну вот - истории то в топе теперь как и должно быть ;)
Ceres, это новый вид ИМ? СЕУбеждение? 😂
не понял - по русски можно?
Ну вот - истории то в топе теперь как и должно быть
интересно только откуда они там взялись без апа то