- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Как снизить ДРР до 4,38% и повысить продажи с помощью VK Рекламы
Для интернет-магазина инженерных систем
Мария Лосева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Здравствуйте!
Подскажите, на страницах есть подгружаемые файлы. Это эксель таблицы. Их нужно скрывать от индексации? Сейчас они все у меня проиндексировались и я думаю стоит ли ставить на ссылках ноиндекс?
Я вообще на этом форуме вижу, что нужно все закрывать лишнее, а сам думаю, а точно ли это так критично и действительно необходимо? Когда-то у меня были большие сайты с сотнями тыс. уников в день и я очень часто не делал того, что тут пишут. Вот думаю сейчас насколько критично делать такие вещи с сайтом и нужно ли вообще?
Если внутри закрываемого объекта нет ссылок, которые могут быть лучше для перелинковки сайта - то можно закрыть часть ненужного текста.
В противном случае может полететь структура и внутренний вес страниц.
У меня эксель табличка с доменами подгружается. В ней ссылки на другие сайты, она вся из ссылок. Она воспринемается страницей поисковиками? И эти ссылки внешние учитываются как-то?
Вы можете выводить ссылку на эту страницу через JavaScript, другой вариант - запрет на ее индексацию через robots.txt. Идеально - реализовать оба варианта. Страницы отличные от HTML могут индексироваться, по ссылкам с них (если поддерживается формат) могут быть переходы поисковика. Например в выдаче довольно часто появляются ссылки на PDF документы, не страницы где они есть, а на сами документы, т.е. они прекрасно индексируются. За Excel не скажу.
В роботсе запретил индексацию этих эксель таблиц. Надеюсь поможет.
Я бы все же закрывал эту часть контента постранично. Другой вопрос зачем ее закрывать в принципе? Из-за того что здесь пишут что нужно закрывать? Так сеошники-теоретики постоянно разный бред несут :)