- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Маркетинг для шоколадной фабрики. На 34% выше средний чек
Через устранение узких мест
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Здравствуйте.
Есть проблема. На сайте существует достаточно большой блок ссылок через все страницы ресурса, который реализован на js и, разумеется, прекрасно индексируется ПС "Гугл". В итоге этот блок(со ссылками на бесконечные вариации дублей контента, которые не в основной выдаче) очень неуместен.
Что необходимо - закрыть блок, при этом увеличив передаваемый вес другим ссылкам на странице (с учетом того, что уйму ссылок из блока изымим в результате его закрытия). В данном случае прописывание атрибутов nofollow не подходит.
Какие есть варианты, так как на ум пришел лишь неподходящий <iframe>...</iframe> ?
со ссылками на бесконечные вариации дублей контента, которые не в основной выдаче
запретите индексацию этих дублей в роботс-е
запретите индексацию этих дублей в роботс-е
Спасибо, думал о таком варианте, но есть 2 нюанса:
1. Ненужные мне ссылки то на странице останутся. Если, например, на странице существует 10 ссылок на нужные мне разделы и 20 на ненужные(страницы которых закрыты в роботс).
Приведу не очень точный пример: вес, который может передать страница возьмем за 300 единиц, например. Разве в результате таких манипуляций передача веса на каждую из 10 страниц будет по 30единиц, а не по 10единиц?
2. УРЛ формируются динамическо-хаотически :), причем на разных страницах они разные (своеобразный выбор по товарам страницы-раздела), чтобы выделить их в отдельную категорию и как-то связать в роботс, нужно будет править движок.
JavaScript document.write
Какие есть варианты, так как на ум пришел лишь неподходящий <iframe>...</iframe> ?
внешние ява скрипты даже гуглом пока что не индексируются
inetessentials добавил 03.08.2010 в 09:21
JavaScript document.write
вот это гугл прекрасно индексирует
внешние ява скрипты даже гуглом пока что не индексируются
плюс, его можно тоже запретить в роботсе
плюс, его можно тоже запретить в роботсе
нафига это-то? все что закрыто, видно, что закрыто :) если что-то прячете имею в виду...
да и так смысла пока что нет...
все что закрыто, видно, что закрыто
это то да, того и говорю, что скоро придется еще паролить их ;)
Тоесть, кроме <iframe>...</iframe> вариантов других нет?
skavr добавил 04.08.2010 в 16:56
Возможен ли такой вариант реализации:
Взять ссылки в
<div onclick="javascript: /название-страницы"> </div>
Кто сталкивался, подскажите, пожалуйста.