Mazay

Mazay
Рейтинг
154
Регистрация
07.11.2009
Delysid :

Зрелищные бои роботов имеют целью продвигать робототехнические технологии и демонстрировать возможности передовых искусственных интеллектов.

Зрелищные? Драка двух алкашей и то зрелищнее, чем эта профанация ))

truessard :
Обычный переезд 301.
В вебмастер домены добавлены.
Новый домен сразу уходит в бан, как опасный.

По данным Яндекса, этот сайт может выдавать себя за популярный сервис или сайт известной организации, чтобы выманить конфиденциальные данные посетителей (пароли, номера банковских карт и т.д...

Попытка переехать на любой новый домен - те же последствия.

Так может проблема не в новом домене, а в старом? )

avangard #:

Ну а если этот сабдомен link закрыть от индексации в robots?

Так и УРЛ тоже можно закрыть, по префиксу. И robots для ПС не жесткая директива сейчас. Могут учитывать, могут нет. В общем говоря, от поддомена вреда не будет, но и прямо ощутимой пользы тоже.

melkozaur #:

И проблем у вордпресса с несколькими самописными плагинами или функциями - потенциально гораздо больше, чем у самописного сайта.

Кроме вопросов безопасности. Защиты от взлома. Большинство "самописцев" не утруждается этим вообще. И, зная код, де факто имеют контроль над сайтом в любое время.

Volovikov #:

А как быть мужику, который отдает всю з/п жене? 

При современной статистике разводов, это не "мужик", а расходный материал на некоторое время )

avangard #:

может ли первый вариант быть предпочтительным - так как  с субдомена идут все переходы, и это как-бы другой сайт со всеми минусами сайта с большим количеством исходящих ссылок. 

Ну не совсем уж "другой сайт". Просто отдельная статистика в вебмастерках. Какую-то небольшую пользу это даст, и в масштабах 2gis это наверно оправдано. Но для обычных коммерческих сайтов (продажи или услуги) трех вышеперечисленных действий достаточно, чтобы проблема ушла и не влияла на seo.

Как только ссылочки такие проявляются, нужно их заблочить в robots.txt. И в Серч-консоли Гугла по префиксу.

Вспомнил ещё один момент для решения подобных проблем с Битриксом. Помимо вышесказанного нужно сделать, чтобы эти редиректы де факто перенаправляли на страницу ошибки 404, а не на чернуху.

Devvver #:

Имхо, но тут нужно такое сразу фиксить. Писать модули, если это возможно в битриксе или хаки.

Да. Я сам удивлен, что это не блочится стандартными средствами Битрикса столь долгое время.

avangard #:

Так это платон и отвечал, что перенаправяляем. а это обычная ссылка с редиректом от битрикса на сайт, который стал зараженным. если бы было слово что мы ссылаемся.

Понял. "Хакеры", пользуясь уязвимостью Битрикса, массово генерят на домене редиректные ссылки на чернуху. Бывало такое. 

Как только ссылочки такие проявляются, нужно их заблочить в robots.txt. И в Серч-консоли Гугла по префиксу.


Всего: 1076