- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году 36,9% всех DDoS-атак пришлось на сферу финансов
А 24,9% – на сегмент электронной коммерции
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Одним словом, хочу убрать плагин, который закрывает все внешние ссылки от индексации поисковыми системами. Затем взять все внешние ссылки и сделать через редирект. Сделать это самым простым способом. Создать отдельный php файл для каждой внешней ссылки, а там уже перенаправлять на другие сайты. Все файлы поместить в папку и закрыть от индексации в robots.txt. Одновременно будет и ссылка скрываться(в частности если это реф. ссылка), и плагинов никаких не нужно.
Теперь вопрос:
Как поисковики отнесутся к редиректу внешних ссылок? Это ведь как бы обман пользователя.
Вопросов типо "это ж сколько тебе файлов придется создавать?" и т.п прошу не задавать. Прошу кратко и по теме.
Заранее спасибо!
Кратко и по теме из своего опыта:
Именно такой вариант у меня, для каждой внешней (ненужной) ссылки создается перенаправляющий php файл. Таких файлов в данный момент чуть более 100. Папка с этими файлами закрыта в роботсе. Тоже в начале тревожился за реакцию ПС. В итоге все нормально.
хорошая идея.
ато у меня ненужные ссылки стоят в noindex и nofollow . скриптом поделитесь?:)
во! отличное решение, а то nofollow отбирает вес!
nofollow отбирает вес!
откуда такая информация?
Кратко и по теме из своего опыта:
Именно такой вариант у меня, для каждой внешней (ненужной) ссылки создается перенаправляющий php файл. Таких файлов в данный момент чуть более 100. Папка с этими файлами закрыта в роботсе. Тоже в начале тревожился за реакцию ПС. В итоге все нормально.
кстати а не лучше ли создать 1 файл а не 100, например назвать его redirect.php
а ссылки делать так /red/redirect.php?url=vk или /red/redirect.php?url=liveinternet и уже простым if - else перебрать варианты и выдать нужный заголовок?
делаю аналогично уже давно, все нормально
<? header ("location: http://domen.ru/bla-bla-bla"); ?>
откуда такая информация?
http://ru.wikipedia.org/wiki/Nofollow
читай абзац Изменения в алгоритме nofollow
кстати а не лучше ли создать 1 файл а не 100, например назвать его redirect.php
а ссылки делать так /red/redirect.php?url=vk или /red/redirect.php?url=liveinternet и уже простым if - else перебрать варианты и выдать нужный заголовок?
Думал над этим, но потом решил воспользоваться способом с файлами, так как так удобней разбивать ссылки по категориям (сервисы, ссылки на скачку и т.д).
Насчет кода, то использую почти тот же код, который уже был опубликован webeditor. Единственная разница, что здесь присваивается сначала значение переменной, которая потом используется.
Вот код:
Правда интересует еще один вопрос:
Ссылки закрыты в robots, но не при помощи nofollow. Это значит что вес на них передаваться будет, но сами страницы индексироваться не будут. Или может быть все же стоит еще помучиться и поставить атрибут rel="nofollow" к редиректным ссылкам? Так сказать для верности?
Роботса достаточно, а у nofollow совсем другая задача.