- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Помогите советом, от яндекса пришло письмо:
сайт www.sait.ru, подвергся XSS-атаке и используется для создания
> мусорных страниц и ссылок на посторонние сайты.
> Подробнее про XSS-атаки можно прочитать здесь:
> http://ru.wikipedia.org/wiki/XSS
> Примеры обнаруженных нашими алгоритмами страниц приведены ниже:
>
> http://www.sait.ru/index.php?str=%30%
> Наличие подобных страниц может привести к уменьшению числа переходов на ваш
> сайт с поиска Яндекса.
Как с этим бороться?
Контролировать параметры, передаваемые в GET.
videok.ru, если серверный язык - php и если вкратце,то при выводе использовать php.net/htmlspecialchars
Т.к. это нужно обратится на хостинг или к программисту, кто делал сайт?
К программисту
А запретить индексацию этих страниц через robots.txt никак не получится? Это скрипт поиска по сайту?
А запретить индексацию этих страниц через robots.txt никак не получится? Это скрипт поиска по сайту?
А как я найду все эти страницы?
Яндекс показал пример только одной страницы.
А запретить индексацию этих страниц через robots.txt никак не получится?
Лучше исправить проблему!
Лучше исправить проблему!
Исправить проблему нужно в любом случае, xss - штука опасная :)
А как я найду все эти страницы?
Яндекс показал пример только одной страницы.
Думаю ответ был дан выше ! сайт.ру/линки.пхп? по шаблону .
посмотрите здесь
фильтруем все гет параметры полученные от пользователя
или
даешь бой xss!
подходит для строки из поиска