- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году Одноклассники пресекли более 9 млн подозрительных входов в учетные записи
И выявили более 7 млн подозрительных пользователей
Оксана Мамчуева
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
У меня на одном из интернет магазинов сканирование упало в несколько раз (а если сравнивать с пиками то вобще в 6 раз) и стабильно держится на низком уровне уже так пару месяцев.
Есть проблемы с индексацией - новые страницы уже более 20 дней не попадают в индекс. Пробовал загонять вручную - толку ноль.
За последние пару месяца добавили много новых категорий. Гугл показывает мол бот обрабатывает некое количество тысяч страниц в день, но до сих пор не может проиндексировать сотни страниц второй и третей вложенности. Где лазит бот не известно.
При этом не могу сказать, что с сайтом есть проблемы так как еще пол года назад подобные страницы индексировало быстро и с первого раза.
Кстати, тоже в выдаче показывает подозрительно низкое количество страниц по оператору site:, которое чуть ли не в 8 раз отличается с информацией из Гугл вебмастерки.
Итого тоже подтверждаю странное поведение гугл бота и проблемы с индексацией и кешированием страниц.
У меня на сайте Гугл вообще убрал с индекса 20-30% страниц с уникальными статьями на время загрузки, которые ранее были проиндексированы и проблем не было! Страницы нормальные и причины такого действия со стороны поисковой системы, не могу понять! Зачем такое чудить? Было проделано много работы с текстами и как оказалось в пустую( Я провел анализ и увидел картину, что многие страницы (скажем так менее качественные) остались в индексе, страницы хорошие, с большим количеством информации (более качественные) были убраны. Логики в этом я не вижу вообще!!!!!!!!
С 10 марта был немного обвал, а сейчас рост
первый провал был 12 декабря, через пару недель частично восстановилось. Второй провал был в середине февраля, потом опять восстановилось. Числа 6-8 марта пошел небольшой рост. Бурж. Статейник.
Подскажите пожалуйста такой момент! На сколько правдива информация относительно того, что в процессе продвижения (закупки ссылок ...) сайт может проседать на выдаче Гугла, далее через некоторое время подняться по позициям.
Подскажите пожалуйста такой момент! На сколько правдива информация относительно того, что в процессе продвижения (закупки ссылок ...) сайт может проседать на выдаче Гугла, далее через некоторое время подняться по позициям.
Может и без закупки проседать жёстко - вон выше куча примеров=)
Подскажите пожалуйста такой момент! На сколько правдива информация относительно того, что в процессе продвижения (закупки ссылок ...) сайт может проседать на выдаче Гугла, далее через некоторое время подняться по позициям.
Всё может быть, нельзя что-то отрицать, не будучи уверенным в этом хотя бы на 100%.😂
гугл спецом пускает пыль в глаза..чтобы никто не вкурил его алгоритмы...как бы не старался разглядеть под микроскопом любые изменения на сайте.. )
гугл спецом пускает пыль в глаза..чтобы никто не вкурил его алгоритмы...как бы не старался разглядеть под микроскопом любые изменения на сайте.. )
Ага, надо вообще полностью выдачу очистить, тогда точно никто не сможет раскусить алгоритмы. А то всё полумеры какие-то.
По адалту у древних трастовых сайтов(относительно новые или нетрастовые понятно остался траф в пределах тысячи) падение началось ещё в конце февраля-начале марта прошлого года и с тех пор идёт необратимый процесс.
Часть запросов съели крупнейшие новостники, которые к адалту вообще не имеют отношения, да и к запросам косвенно. По части запросов вся выдача забита дорами.
Ещё по ряду запросов ранжируются только сайты с минимумом рекламы(один баннер бонги или рунеток в глубине сайта), но зарабатывать с одного уника копейку, а то и меньше не вариант
Кстати последнее время яндекс тоже по многим адалтзапросам вообще не ранжирует адалтсайты. По НЧ адалту и вовсе одни неадалтные и абсолютно нерелевантные сайты. По ВЧ ещё даёт набирать траф.
И непонятно, зачем это всё поисковикам и зачем коллективно гасят адалт и отгоняют от себя юзеров.
Если год назад в руадалте у трастовых сайтов траф по гуглу даже чуть превосходил яндекс, то сейчас везде не более 18%, а кое-где и мэйл догоняет.