- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Переиграть и победить: как анализировать конкурентов для продвижения сайта
С помощью Ahrefs
Александр Шестаков
В 2023 году Одноклассники пресекли более 9 млн подозрительных входов в учетные записи
И выявили более 7 млн подозрительных пользователей
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Есть сайт http://supplemental.name/ Там есть возможность проверить сайт на то, что его страницы находится в дополнительном индексе гугла. Можно ли доверять подобным проверкам и насколько они точны? Как технически такое реализуется и можно ли эту проверку сделать самостоятельно без помощи таких программ?
у меня пару раз результат отличался. скорее всего просто датацентры как-то отличаются
я думаю не стоит доверять. датацентры и правда отличаются
Почти по теме... можно ли доверять оптимизаторам проверяющим сайты на сопли?
__________________Все посетители живые, не боты. (http://livesurf.ru/promo/80271)
Доверять оптимизаторам на проверку сопливого фильтра думаю можно, а можно ли это процесс автоматизировать?
Проверил сайт - http://www.ukr.net/
Результат -
В индексе гугла 8920000 страниц сайта ukr.net
Из них в основном индексе 88900 страниц;
В дополнительном индексе 8831100 страниц.
Качество сайта ukr.net 1%
Это никуда не годится. Сайт однозначно не качественный.
Предупреждаем, что критерии качества Гугла очень высоки.
Результат может Вас расстроить :(
И что теперь? Бедняги и не знают в каком ужасном состоянии ;)
Проверил сайт - http://www.ukr.net/
Результат -
В индексе гугла 8920000 страниц сайта ukr.net
Из них в основном индексе 88900 страниц;
В дополнительном индексе 8831100 страниц.
Качество сайта ukr.net 1%
Это никуда не годится. Сайт однозначно не качественный.
Предупреждаем, что критерии качества Гугла очень высоки.
Результат может Вас расстроить :(
И что теперь? Бедняги и не знают в каком ужасном состоянии ;)
И у Рамблера проблемы))))))🤪
Доверять оптимизаторам на проверку сопливого фильтра думаю можно
Вопрос стоял несколько иначе... Можно ли доверять профессионализму оптимизаторов, которые проверяют сайты на не существующий фильтр.
не существующий фильтр.
Где доказательства что его нет? Страницы-то попадают в дополнительный индекс, при большом количестве таких страниц гугл может решить, что ресурс некачественный и понизить его в выдаче. Это и будет что называется фильтром. Разве не так?
Доказательство "от противного" (погуглите, если не знаете, что это такое) :
В основном индексе нет ни одной страницы.
Качество сайта ozon.ru 0%
korpus, напишите озону, что у них сайт-говно и зафильтрован на 100%, а ******* хостов в месяц трафа с гугла - это мираж, глюк и какое-то недоразумение.
Kost +1.
Гугл - садомазохист. Отправил 97% страниц своего основного домена под фильтр. :D
Сколько уже говорилось на эту тему, а они всё ровно сопли ищут. :)
/ru/forum/600599