- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Уж вроде наладилось у яндекса посвежее выкладывать индекс
так нет, опять задержка
В выдаче изменений НЕТ!
Сохранёнка старая.
Зачем нужна эта тема - не понятно 😒
Оу, маленькая подвижка, +100 страничек в индекс :)
Оффтоп:
так забавно смотреть как бедный яндекс проиндексировал 750 страниц с трудом. В то время как гугл уверенно взял за то же время 80 000 страниц из 190 000 индексируемых. Яндекс +100 в неделю, гугл +100 в час ;) так же и трафик, перевес в сторону гугла 85%. Ботов яндекса на сайте живет 1, а от гугла 4 штуки аж. Жаль.
так забавно смотреть как бедный яндекс проиндексировал 750 страниц с трудом. В то время как гугл уверенно взял за то же время 80 000 страниц из 190 000 индексируемых. Яндекс +100 в неделю, гугл +100 в час ;)
Контент, небось, очень интересный, полезный и уникальный))). Пишете сами или у хороших копирайтеров заказываете? ;)
Контент, небось, очень интересный, полезный и уникальный))). Пишете сами или у хороших копирайтеров заказываете? ;)
Форум, 90 000 тем, 1 500 000 сообщений, 100 000 пользователей. Гугл индексирует по карте сайта формата xml.gz в этой карте включены только страницы с темами и разделами. Дублей нигде нет, профайлы юзеров закрыты от индексации.
Тьфу тьфу, наконец то скушал 1600+ страниц, а то за 2 месяца 150 еле забрал.
Пока писал - уже 1610)
Все сайты в +, и один новый влетел в индекс... но настолько медленно и так мало...
Более или менее новостные сайты прибавили несколько страничек всего.
ГС на копипасте с туевой хучей ссылок сидит как влитой в индексе и еще продолжает входить в него.
Постоянно обновляемый крупный сайт пол сотни страниц прибавил.
Ну и новенький один :).
Как-то так. По клиентам буду позже смотреть как проснусь.
Как с индексацией у кого? Сайты прибавляют по 5-10 страниц, а надо бы раз во много больше. И выпадают странички, где тайтл на английском. Опять чего-то накрутили
Ну вот, другое дело!
к 12000 +1000 страниц, куча бэков, в том числе с дмоза.
Почему так индексация всех интересует ?
Для САПы или внутреннего веса ?
Как количество страниц на позиции влияет ?