- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Добрый вечер. Мы продвигаем сайт собственными руками, наверное и так можно сказать. Ситуация в принципе нас устраивала, т.е. мы создавали разделы, писали статьи и автоматом закупали ссылки на вебэффекторе, все страницы занимали какие то позиции в яндексе по ключевым фразам, страниц было в поиске около 3000 по вебмастеру. Сайт у нас сделан на битриксе, наняли мы удаленщика по програмированию, он нам сделал какие инфоблоки, т.е. как я понимаю изменил свойства разделов которые были у нас на сайте, и вдруг мы заметили, что резко сократилось число страниц в яндексе, около 600 страниц осталось, и то те страницы которые не трогал програмист. Он сказал, что поменял свойства инфоблоков в битриксе, а мы заметили что на сайте появились дубли страниц, вот пример
http://www.домен.ru/catalog/konditsionera_dlya_dachi/ (так было до вмешательства програмиста)
http://www.домен.ru/catalog/konditsionera_dlya_dachi/?sphrase_id=593 (этот дубль образовался после)
Он нам сказал что проблема решается путем роботса файла, включил нам строку такого типа:
User-agent: *
Disallow: *sort=*
но страниц за несколько недель не прибавилось, после редакции роботса. Потом он нам сделал карту сайта, но в карте сайта страницы идут без www, а по вебмастеру показывает, что сайт проиндексирован с www, в гугле проиндексирован без www. Подскажите пожплуйста каким образом улучшить ситуацию, можно сделать как то, чтобы и для гугла и для яндекса сделать, чтобы был сайт и с www и без. Если да то как, мы не програмисты и не сеошники, поэтому спрашиваем у вас совета.
вам нужно сделать в роботсе, чтобы одновременно для яндекса был сайт с www, а для гугла без www. И с картой нужно решить вопрос.
М-да, никто кроме вашего программиста не ответит на ваш вопрос, ибо мы не понимаем о чем речь...Что за инфоблоки, что за свойства инфоблоков в битриксе? Это к специалистам этого движка обращайтесь, это в другой ветке форума.