- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
И что это даст ТС? )
Возможность нажать Delete в подходящий момент)
Все 11 "ошибок" - откровенно ерунда, и там написано, как лечится большая часть их (если возможность менять шаблон еще осталась) - на примере самой первой
---------- Добавлено 18.06.2019 в 08:38 ----------
Это был (непрозрачный) намек на то, что нанимаете постороннего исполнителя на задачи"понять чужой код, навтыкать костылей, сопровождать далее, очистить от вирусного инжекта установленный сайт". Это может быть 1 или 2 разных человека, ибо специализация несколько разная - программер и безопасник
А если по уму и разумно распорядиться бюджетом - то
* сохранить сайт (любым парсером) полностью - с содержанием ваших страниц и структурой
* сделать его по новой, на коробочной CMS и как минимум в дизайне 2019 года, а не 2009
Спасибо. Так и поступлю. Сделаю его по новой, на коробочной CMS и как минимум в дизайне 2019 года, а не 2009
Спасибо всем, кто давал советы.
Я, пожалуй, буду посылать в этот топик активно топящих за "надо лепить самописы, чтобы было все по фэншую" сектантов
Вы продвигаете говнобитрикс что-ли :) ?
Правда думаете, что это уязвимость в чем-то самописном :) ?
Обладаете хоть какой-то компетенцией... и опытом.
Ну не знаю... хоть что-то умеете кроме того, что называть фигнёй проблемы с тегами html :) ?
В 90+% случаев подобное - результат атаки компьютера жертвы.
Утекает доступ к ftp после чего на него заливают всякую ересь.
И наличие современной тормозной и дырявой cms тут скорее всего не помогло бы :).
И да, я за самопис. Но безусловно самопис не для дебилов. Поэтому многим он противопоказан.
Точно также, как не все могут себе позволить одежду или обувь сделанную по их меркам.
Такие дела. Кто-то может себе позволить, остальные пускают слюни завидуют и бесятся :).
Но жить как-то надо, поэтому лучший вариант - запугивание клиентов по схеме "все делают
так-то, если будешь делать по-другому будет тебе айайай, вот смотри уже кому-то что-то куда-то вкорячили" :)
Ошибся, думал он не может найти админку среди всех файлов))
Все 11 "ошибок" - откровенно ерунда, и там написано, как лечится большая часть их (если возможность менять шаблон еще осталась) - на примере самой первой
---------- Добавлено 18.06.2019 в 08:38 ----------
Это был (непрозрачный) намек на то, что нанимаете постороннего исполнителя на задачи"понять чужой код, навтыкать костылей, сопровождать далее, очистить от вирусного инжекта установленный сайт". Это может быть 1 или 2 разных человека, ибо специализация несколько разная - программер и безопасник
А если по уму и разумно распорядиться бюджетом - то
* сохранить сайт (любым парсером) полностью - с содержанием ваших страниц и структурой
* сделать его по новой, на коробочной CMS и как минимум в дизайне 2019 года, а не 2009
Еще вопрос: А если оставить только нужные страницы - свои, а ересь убрать, то как не получить 404 ответ. Или придется все 3000 спамных страниц загонять в no index?
Посоветуйте, пожалуйста, этот "любой" парсер для 250 страниц, коих содержится на нашем сайте.
А если оставить только нужные страницы - свои, а ересь убрать, то как не получить 404 ответ. Или придется все 3000 спамных страниц загонять в no index?
Просто - ничего не делать. Эти "страницы" все получаются из главной добавлением GET-параметра ?zuz= - в интерфейсе таких ссылок нет, появились они за счет того, что кто-то где-то снаружи сделал такие ссылки и они были проиндексированы. Ну будут эти ссылки давать 404, потом вывалятся из индексов (Гугель говорит так), можно еще до кучи заблокировать в robots.txt "*?zuz=*" (вроде так, если что - тут меня поправят) и скормить все левые урлы в "Удаление URL" в Яндесовом Вебмастере (та не более 500 день, да и из индекса вывалятся не сразу, а с ближайшим апдейтом индекса, так что не быстрее, чем с 404)
Не думаю, что гугель эти ссылки где-то как-то для полезного учитывает, но можно их до кучи, пока в индексе, еще и дезавуировать (надо ли - не уверен, а возни - много)
Посоветуйте, пожалуйста, этот "любой" парсер для 250 страниц, коих содержится на нашем сайте.
Их 224 (проверял), ну и с парсерами мне подсказать сложно - я старорежимный, мне wget хватает последние дцать лет. Тут кто-то из аудитории может предложить скорее что-то лучше, чем вот такое (не проверял, не смотрел, не знаю)
Да любой красноглазик на КВорке за 500 рублей сделает копию и не будет грузить проблемами