- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Что делать, если ваша email-рассылка попала в спам
10 распространенных причин и решений
Екатерина Ткаченко
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
сайт-то открывать пробовал и проверить? на WP сделан, говоришь?
Сайт явно не тс.
Да какие беки, о чем вы, это лом. Слово bitrix там указано для отвода глаз. Тут уже была такая же тема.
Да, это не ссылочный спам. Это вот что за история.
Да, это не ссылочный спам. Это вот что за история.
Так спамят сайты на битриксе, а в битриксе своя религия)
При чём тут Битрикс и религия? Это можно сделать на любой CMS, и в Битриксе такого изначально нет. Это либо сделано разработчиком сайта, либо сайт взломан - ТС-у виднее.
Как же не важно, если спамерам нужны именно проиндексированные беки, а индекса не будет?
Роботс же не гарантирует непопадание в индекс. Размещай ссылки на стороннем сайте - и всё попадёт.
Да, это не ссылочный спам. Это вот что за история.
Вы просто с бурж не работали.
- Ссылочный спам в независимости на какой CМS выполнен сайт.
- Для спама, Главное чтобы сайт отдал 200 на данную конструкцию /?go=htttp и попасть в серверную вебстатистику, которую все ПС сканируют точно также как и ваш сайт
- Если закрываете в роботс, то должен быть и запрет на папку webstat
Лучше поставить запрет и на папку webstat и на конструкции /?go= /?goto= и тд
Роботс же не гарантирует непопадание в индекс. Размещай ссылки на стороннем сайте - и всё попадёт.
- Ну и поэтому должно быть 404, а не 403 доступ запрещен
Но на вашем сайте оно все равно в каком то виде должно присутствовать
А кто-то спорит? Точно не я.
Роботс же не гарантирует непопадание в индекс.
Не гарантирует, хотя и не помешает, но дело реально не в бэках.
Это фишинговая тема, связанная баннер модулем Битрикса, поэтому адрес /bitrix/rk.php?goto там не просто статистическая случайность.
Полагаю, перенаправлять такие заходы нужно в 403 и проблема будет решена.
Делаем ставки. Я даже попробую предугадать плагин: https://wordpress.org/plugins/wp-noexternallinks/
100% попадание в предмет!)) Таки да, при отключении плагина сайт, при переходе по ссылке отдаёт 301. Это замечательно.
Только один вопрос, чем заменить wp-noexternallinks, чтобы плагин подхватил уже закрытые ссылки и был удобен в админке Вордпресс, позволяя закрывать ссылки непосредственно в момент редактирования?