- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
На странице есть два примера ограничения текста тэгами <noindex></noindex>. В первом месте ограничен просто текст. Во втором месте ограничены текстовые гиперссылки. В обоих случаях ограниченный текст не вносится в индекс Яндекса. Но робот всё равно ходит по ограниченным ссылкам и индексирует страницы.
Эксперименты с тегами <nofollow></nofollow> результата не принесли. Использование robots.txt для решения проблемы невозможно. Техподдержка молчит, вероятно, считая, что вопрос задан чайником.
Как быть? Как ограничить хождение робота по ссылкам на странице? Быть может сужествуют правила для его расстановки в тексте, в таблице?
js.
где вы про такие теги узнали?
см. http://www.robotstxt.org/wc/faq.html#noindex
А мысли по существу есть у кого-нибудь?
Ветрищщща, вы не поняли намек. Не нужные для индексации страницы закрываются полностью прямо в них:
<META NAME="ROBOTS" CONTENT="NOINDEX">
если невозможно сделать это через robots.txt.
Но ждать - относительно долго.
Намек директора дурдома вы похоже тоже пропустили мимо.
js - это javascript.
Неужели этого недостаточно?
Да я понял, что директор дурдома советует использовать скрипт. Но лишний раз грузить сервер еще одним скриптом нежелательно... Через robots.txt тоже закрыть не удастся, так как страницы, которые необходимо закрыть, имеют url http://tram.pampam.net/tralyalya.html?sort=a&filter=NEC
И кажется я понял в чем дело и как с этим бороться... Проверю - поделюсь.
А разве js грузит сервер? Я всегда считал что он выполняется на стороне клинта...
А он и выполняется на стороне клиента, раз мы можем отключить выполнение сценарий.
Может под "грузить сервер" человек имел ввиду перегружать страницу лишним кодом :-)
Действительно <a href="javascript:window.location='/links.html' ">Ссылка</a> сильно все перегрузит. :-) И сервер, который выдает документ и клиента, на которым выполняется js :-)
Что то я не нашёл в спецификации по HTML описания таких тэгов <noindex></noindex>, откуда они тогда взялись, их что русские вебмастера придумали? Или может я невнимательно читал?