- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
На саммите мы хотели узнать какие именно технологии дублирования вызывают наиболее жаркие споры участников. Этими технологиями оказались копирование сайта, синдикация (RSS) и дубликаты внутри одного сайта. Мы обсудили возможные пути решения этих вопросов и некоторые решения предложенные участниками саммита будут рассмотрены наряду с нашими внутренними разработками. Я приведу некоторые из возможных решений для того что бы те кто не принимал участие в саммите могли принять участие в обсуждении.
Сегодня допереводил статью о дублированном контенте с googlewebmastercentral.blogspot.com , перевод еще сыроват так что не пинайте :)
читать вот здесь
Из полезного узнал такие вещи:
- количество nofollow не влияет на позицию в серпе
- есть команда filter=0 , которая показывает отфильтрованные результаты
- возможно скоро появится сервис определения дубликатов ( т.е. вэбместера будут знать о том на каких сайтах копии их статей )
Интересно то что дублированый контент не влечет штрафных санкций для сайта + никак не связан с суплементалом.
ага, еще интересно то, что сайтмэпс можно указывать через robots.txt
команда sitemap: http://www.site.ru
Интересно то что дублированый контент не влечет штрафных санкций для сайта + никак не связан с суплементалом.
напоминает ролик Катса... сопли - это нормально, не переживайте...
давайте делать под каждый размер, объем, кол-во, цвет упаковки товара, отдельную страницу....
санкций ведь не будет...
и спамить по соц сетям...
Интересно то что дублированый контент не влечет штрафных санкций для сайта + никак не связан с суплементалом.
да гугля запросто в СРы забирает уникальный контент, а потом вообще нах выкидывет из индекса, пока ему ссылками не покажешь что документ не кусок дорвея или каталога а типа представляет для когото интерес и на неё сослались.
Спасибо за статью, а что такое авторитет сайта не подскажите?
Сервис для определения дублей давно есть - copyscape.com - причем работает только по сайтам, прокушанным гуглем. Возможно это его сервис ;)