- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Добрый день! Подскажите чей поисковый алгоритм сейчас стоит на поиск мэил ру? Заранее спасибо!
Для запросов на русском языке - свой, для других - от гугла.
По личным ощущениям, в смысле по запросам, касающимся моих сайтов, - у них щас идет бурная работа. Позиции скачут так, что сложно нормально диагностировать, а гадать на сколько процентов у них посик от гугла - это от лукавого.
В любом случае, очень рад за мейл. Видно, что работают.
Мда, а как по мне, то для обоих случаев свой собственный алгоритм, посмотрите выдачу в трёх поисковиках по случайно найденным фразам:
"www.hzb02.com/html/lkjdf"
"аоаоа ооо"
Можете еще своих придумать.
Вроде как с 1 февраля должны на полностью свой поиск переходить, даже beta есть тут
Уже наверное перешли, по одному молодому сайту с mail переходов раз в 5 больше чем с яши и гугля вместе взятых
Походу, я попал в сплит-тест нового алгоритма. По одному из сайтов про robots.txt, я уже выяснил, что клал на него робот большой болт на 18. Дубли-дублей-дублей-дублей в индексе, просто адским количеством, причем все свежие и на все сервер отвечает 404 not found либо 410 Gone и закрыто в robots
Вопрос номер два - этот багоспайдер rel="canonical" понимает? Есть у кого наблюдения?
Походу, я попал в сплит-тест нового алгоритма. По одному из сайтов про robots.txt, я уже выяснил, что клал на него робот большой болт на 18. Дубли-дублей-дублей-дублей в индексе, просто адским количеством, причем все свежие и на все сервер отвечает 404 not found либо 410 Gone и закрыто в robots
Напишите в службу поддержки поисковика. Мне ответили за сутки, причем ответ помог.
Похожая ситуация имеется.
Уже наверное перешли, по одному молодому сайту с mail переходов раз в 5 больше чем с яши и гугля вместе взятых
Даже не знала про бета тест. Проверила траф на нескольких сайтах - действительно с мейла увеличился. И таже проблема с дублями. Пишу в саппорт.
все есть поисковик и noindex тоже 🍿 😒