- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Одним словом, хочу убрать плагин, который закрывает все внешние ссылки от индексации поисковыми системами. Затем взять все внешние ссылки и сделать через редирект. Сделать это самым простым способом. Создать отдельный php файл для каждой внешней ссылки, а там уже перенаправлять на другие сайты. Все файлы поместить в папку и закрыть от индексации в robots.txt. Одновременно будет и ссылка скрываться(в частности если это реф. ссылка), и плагинов никаких не нужно.
Теперь вопрос:
Как поисковики отнесутся к редиректу внешних ссылок? Это ведь как бы обман пользователя.
Вопросов типо "это ж сколько тебе файлов придется создавать?" и т.п прошу не задавать. Прошу кратко и по теме.
Заранее спасибо!
Кратко и по теме из своего опыта:
Именно такой вариант у меня, для каждой внешней (ненужной) ссылки создается перенаправляющий php файл. Таких файлов в данный момент чуть более 100. Папка с этими файлами закрыта в роботсе. Тоже в начале тревожился за реакцию ПС. В итоге все нормально.
хорошая идея.
ато у меня ненужные ссылки стоят в noindex и nofollow . скриптом поделитесь?:)
во! отличное решение, а то nofollow отбирает вес!
nofollow отбирает вес!
откуда такая информация?
Кратко и по теме из своего опыта:
Именно такой вариант у меня, для каждой внешней (ненужной) ссылки создается перенаправляющий php файл. Таких файлов в данный момент чуть более 100. Папка с этими файлами закрыта в роботсе. Тоже в начале тревожился за реакцию ПС. В итоге все нормально.
кстати а не лучше ли создать 1 файл а не 100, например назвать его redirect.php
а ссылки делать так /red/redirect.php?url=vk или /red/redirect.php?url=liveinternet и уже простым if - else перебрать варианты и выдать нужный заголовок?
делаю аналогично уже давно, все нормально
<? header ("location: http://domen.ru/bla-bla-bla"); ?>
откуда такая информация?
http://ru.wikipedia.org/wiki/Nofollow
читай абзац Изменения в алгоритме nofollow
кстати а не лучше ли создать 1 файл а не 100, например назвать его redirect.php
а ссылки делать так /red/redirect.php?url=vk или /red/redirect.php?url=liveinternet и уже простым if - else перебрать варианты и выдать нужный заголовок?
Думал над этим, но потом решил воспользоваться способом с файлами, так как так удобней разбивать ссылки по категориям (сервисы, ссылки на скачку и т.д).
Насчет кода, то использую почти тот же код, который уже был опубликован webeditor. Единственная разница, что здесь присваивается сначала значение переменной, которая потом используется.
Вот код:
Правда интересует еще один вопрос:
Ссылки закрыты в robots, но не при помощи nofollow. Это значит что вес на них передаваться будет, но сами страницы индексироваться не будут. Или может быть все же стоит еще помучиться и поставить атрибут rel="nofollow" к редиректным ссылкам? Так сказать для верности?
Роботса достаточно, а у nofollow совсем другая задача.