- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Есть несколько сайтов на джумле, на некоторых первых что я делал копировал прямо из Ворда при публикации в Джумлу, потом только увидел что вместе с тектом были скопированы теги типа
Как известно их там очень много, и еще много ерунды всякой..
Не знаю совпадение или нет, но несколько таких сайтов после нормального попадания в топ потом ушли глубже, кроме одного..
А все последующие что без тегов так и остались в поряде.. Если бы не этот один, что остался в топе, точно бы подумал что как то связано.. А теперь в сомнениях :)
Если честно, я думаю вряд ли влияет, потому как все страницы в индексе, просто на 5-10-50 страницах..
А вы как думаете? :) Надо чистить?
Я бы почистил - запросами в базу делается за 10 минут.
Пример
UPDATE `jos_content` SET `introtext` = replace(`introtext`, '<p class="MsoNormal">','<p>')
И после таких запросов получить тексты с криво закрытыми тегами .)
а не проще работать через OpenOffce ?
Там при копировании в joomle куда меньше мусора получается...
---------- Добавлено 06.11.2012 в 23:11 ----------
Stek, Если не сложно, опишите мне в личку. Хотел поинтересоваться по поводу хостинга.
Видимо ТС уже понял ошибку и сейчас проблему нужно решать, а не думать как было бы если бы...
Хлам в коде не мешает индексации, но яндекс врятли сочтет это плюсом. Как отреагирует робот никто не знает. Лучше все же руками все поисправлять. В базе ковыряться так не стоит.
Почистить код специальной программой, где-то видел
всем спасибо, чищу.. одна статья минут 5.. ух :)
Чистишь,.. 5 минут статья.. Хотя если у тебя 10 статей, то нормально. Говорят, что "работа дураков любит"! ;)
Ты в сомениях ищешь оправдание.
Хоть один реальный аргумет против класса class="MsoNormal" ты услышал?
Ты уверен, что чисто закроешь все тэги и не сделаешь самый простой кривой HTML? Который тоже может игнорироваться поисковым ботом, но в твоём случае будет всегда замечено, что он может уйти на дальние кордоны в поисковой выдаче :)
А ведь вместо того, чтоб сразу писать на форуме и слушать тутошних мракобесов, оптимизирующих сайты при помощи бубна, надо просто логически подумать, чем вложеность в тег <p> c классом "MsoNormal" может повлиять на код документа в плане ренда страницы (что можно исправить 1 строчкой в css) и сможет ли бот прочитьтать всю конструкцию как угрозу на спам или ещё какие-то противопрпаавные действия.
Очень долго пользуюсь программой "HTML оптимизатор" (HTMLOpt) версии 0.02.
Для полной очистки в файле HtmlOpt.tag должны быть строки:
<v:shapetype
<v:stroke
<v:imagedata
Сначала сохраняю из Word как HTML с фильтром, потом обрабатываю этой программой. Получается довольно чистенький HTML.
Сайт разработчика программы http://www.alonewolfsoft.narod.ru/, там есть новая версия.