- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Страницы выпали два месяца назад почти, а редирект гугл сделал только неделю назад. Это что касается com и ru. А про "www" и "без www", то как мне тут быть, в ЯВМ теперь нельзя указать адрес главного зеркала, вот что пишет ЯВМ: "Файл robots.txt не будет учтён роботом Яндекса, т.к. при запросе выполняется перенаправление"...
Короче, я вообще запутался, че делать-то...
все что вы не можете сделать и от вас не зависит, объясните саппорту
а как по поводу тех двух пунктов, что я писал: в Description было полное вхождение слов из title, и на главной странице было около 200 меток, которые все вели на разные страницы сайта. Это может быть одной из причин выпадения?
а как по поводу тех двух пунктов, что я писал: в Description было полное вхождение слов из title, и на главной странице было около 200 меток
имхо, если это и влияет, то крайне незначительно.
главная проблема в редиректах, которые нужно решить
И еще такой момент:
в последние два апдейте все страницы возвращаются в индекс, посещаемость резко возрастает с 1000 до 1500 уников, но под конец апа опять страницы вылетают. и так два последних апа подряд....
Файл robots.txt не будет учтён роботом Яндекса, т.к. при запросе выполняется перенаправление"
Когда вы делаете 301 перенаправление в .htaccess или что у вас там, необходимо ставить исключение для файла robots.txt на исходном сайте:
RewriteRule ^robots.txt - [L]
т.к. в таком случае, действительно, ПС не смогут его прочитать.
написал в саппорт, смотрю, часа два спустя быстроробот загрузил уже 15 страниц на домен с ru. Подождем, что будет дальше. Спасибо всем за советы!!!