- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
В 2023 году Одноклассники пресекли более 9 млн подозрительных входов в учетные записи
И выявили более 7 млн подозрительных пользователей
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Яндекс как-то проиндексировал результат обработки формы поиска.
в результате чего получилось:
то что схватил яндекс
Каким образом это могло произойти?
Причем, если присмотреться, то во всех 28 результатах присутсвует всего 2 слова:
1. где
2. WEB
Кто-нибудь прокомментирует?
Спасибо.
Такое ощущение, что кто-то ручками забил урлы с поисковым скриптом.
Интересно совпадение ли, но я проверил через расширенный поиск Яндекса, кто ссылается непосредственно на поисковый скрипт http://softportal.com/search.php
Строки
Метапоисковая система MetaPing :: WEB
http://www.metaping.com/cgi-bin/meta.cgi?where=3&text=WEB
- выглядят немного подозрительно
Inferno
Наверное точно так же ручками прийдется эти УРЛы удалять :(
А запретить к индексации реззультаты поиска в лом, что ли, было?
wolf
robots.txt игнорируется Яндексом... :) он индексит все что видит ...
robots.txt игнорируется Яндексом... :) он индексит все что видит ...
ДА???
а почему тогда сам Яндекс пишет "используйте robots.txt"???
;)
http://www.yandex.ru/info/webmaster2.html#robots
Он действительно игнорируется некоторыми роботами Яндекса, например, тем, что с литерой D (робот быстрой проверки страницы, добавляемой с помощью формы http://www.yandex.ru/addurl.html ). Но индексирующий робот (с литерой I) его, вроде бы, соблюдает. А вообще по поводу "вежливости" различных яндексовских роботов здесь в своё время кипели недюжинные страсти.
говорим же об ИНДЕКСАЦИИ, а не о быстрой проверке ;)
индексирующие роботы по меньшей мере ДОЛЖНЫ его соблюдать ;)
и вроде как соблюдают...
Он действительно игнорируется некоторыми роботами Яндекса, например, тем, что с литерой D (робот быстрой проверки страницы, добавляемой с помощью формы http://www.yandex.ru/addurl.html ). Но индексирующий робот (с литерой I) его, вроде бы, соблюдает. А вообще по поводу "вежливости" различных яндексовских роботов здесь в своё время кипели недюжинные страсти.
:) Не знаю как у кого, но у меня почему-то Яндекс лезет во все щели :)
А попробуйте "ход конём" - если сайт скриптовый (ASP/PHP/Perl etc.), а не статический, и провайдер позволяет - напишите обработку входящего IP (у робота яндекса, например - 213.180.194.177), и отдавайте ему 404 ошибку на страницы, которые не хотите индексировать ;)
Может, robots.txt с ошибкой написан. Ничего, кстати, смешного, дело житейское, сам недавно лажанулся, поставив пустую строку между директивами User-agent и Disallow. Хорошо, быстро забдил. Вы на свой robots.txt глазами Яндекса взгляните: http://kako.yandex.ru/cgi-bin/test-robots