- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Переиграть и победить: как анализировать конкурентов для продвижения сайта
С помощью Ahrefs
Александр Шестаков
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
В руководстве яндекс.вебмастер прочитал что можно запрещать ссылку на сохраненную копию
"<meta name="robots" content="noarchive"/> — не показывать ссылку на сохраненную копию на странице результатов поиска."
Если я правильно понял то яндекс всё равно сохраняет копию у себя, просто не показывает ссылку на неё.
Какие плюсы и минусы от того от того что не будет ссылки на сохреннную копию?
Ухудшится ли распознавание яндексом первоисточника статьи или ранживование сайта если не будет этой ссылки, или она создана лишь для того чтобы если сайт временно недоступен то посетитель мог посмотреть сохраненую копию?
Если я правильно понял то яндекс всё равно сохраняет копию у себя, просто не показывает ссылку на неё.
Верно. Приходится хранить исходный документ хотя бы для формирования сниппета. Вероятно, это не единственная необходимость.
Какие плюсы и минусы от того от того что не будет ссылки на сохреннную копию?
Не думаю, что это будет иметь негативный эффект в обозримом будущем. С другой стороны, Гугл ведь говорит, что возможно ухудшение ранжирования сайтов, запрещающих индексацию вебархивом. Т.е. поисковые системы используют все больше косвенных факторов. В общем, я бы не стал закрывать эту ссылку.
А зачем вам это, если не секрет?
А где он это говорит?
В руководстве яндекс.вебмастер прочитал что можно запрещать ссылку на сохраненную копию
"<meta name="robots" content="noarchive"/> — не показывать ссылку на сохраненную копию на странице результатов поиска."
Если я правильно понял то яндекс всё равно сохраняет копию у себя, просто не показывает ссылку на неё.
Какие плюсы и минусы от того от того что не будет ссылки на сохреннную копию?
Ухудшится ли распознавание яндексом первоисточника статьи или ранживование сайта если не будет этой ссылки, или она создана лишь для того чтобы если сайт временно недоступен то посетитель мог посмотреть сохраненую копию?
Плюсов не существует. Минус может быть, если вы захотите её сами посмотреть. ( больше никому она на хер не нужна :) )
Верно. Приходится хранить исходный документ хотя бы для формирования сниппета. Вероятно, это не единственная необходимость.
Не думаю, что это будет иметь негативный эффект в обозримом будущем. С другой стороны, Гугл ведь говорит, что возможно ухудшение ранжирования сайтов, запрещающих индексацию вебархивом. Т.е. поисковые системы используют все больше косвенных факторов. В общем, я бы не стал закрывать эту ссылку.
А зачем вам это, если не секрет?
Я веду самостоятельную статистику переходов по сайту и посетителей (php + mysql)
было замечено что с некоторых ip адресов было обращение в течение нескольких дней только на одни урлы (то есть из 40 запросов к сайту все на одну статью).
Таким образом могут парсить сайт.
Сейчас сайт немного такое вычисляет и банит по ip адресу.
+ если от одного пользователя слишком много запросов за короткое время то он или бот или скачивает сайт (через приготовленный парсер или через прогу-скачивалку).
таких я тоже бану - хорошо что таких не много.
Если человека забанить то он сможет просматривать только через прокси т.к. ip забанен (список прокси пока не знаю где достать).
(я конечно понимаю что вы сейчас начнете говорить что я таким образом мог забанить целую сеть пользователей)
Статей на сайте не много - контент интересный, (100 статей). сайт пока что новый поэтому трастовости нет у него.
а кто упёртый сильно тот может и через сохраненные копии контент вытащить.
вот подумал еще одну дырку закрыть.
Пока сайт будет лезть ввверх по позициям - архивную копию буду оставлять.
Блин, а я думал, если страница уже в индексе с неё нет смысла контент парсить :(
В целом это порочный путь. Есть другие способы защиты авторства, на серче как-то один продавался за большие деньги.
Много денег нет - ресурс пока что некоммерческий.
Первый год будет держаться на чистом энтузиазме (пока посещалка не поднимится)
Уже почти никто не парсит контент на свой сайт с помощью фрэймов (от них спасает яваскрипт)
а вот от php парсера трудно скрыться - поэтому приходится вести наблюдение за подозрительными визитами.
file_get_contents() и регулярных выражений достаточно чтобы полностью онлайн парсить сайт.
Когда посещений станет побольше и ИЦ подрастет тогда можно снять ограничение или сделать его более мягким.
Знаю сайт который недоступен сейчас а у него было 100 тыс.посещений в день с 5000 страниц.
Вот интересно если сайт уже 5 лет в индексе яши то если он после апдейта вылетит а кто-нибудь у себя зальёт копию сайт (вдруг у него такая была) или через сохреннёнку полезет, то когда старый сайт возобновит работу на сколько процентов он сохранит свои позиции