- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Переиграть и победить: как анализировать конкурентов для продвижения сайта
С помощью Ahrefs
Александр Шестаков
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Mangusten, в чем принципиальное отличие от предложенного мной в первом посте?
Dissallow: */?
Только вот в статистике мы этого не увидим.
есть ссылочный вес, который теряется при закрытии таких страниц от индексации.
Если у вас практическая задача, закрывайте, пост #10.
Ну а если вы пришли за математически точными изысками и измерениями ссылочного веса в микрограммах, то я - пас.
скорее всего ссылочный вес передаваемый на страницы с метками мы просто потеряем
А на кой он нужен то? Здесь важнее избавиться от дубликатов, ибо их присутствие гораздо страшнее, чем отсутствия веса на страницах с метками.
ну это смотря какая статистика, я ж не знаю чем вы пользуетесь.
Как вариант, может быть не очень удобный, но мне приходилось так делать. По крону запускать скрипт, анализирующий логи апача и складывающий в отдельный файл статистику по каждому запросу. Если человек соображающий, то за 1-2 часа такое сделает.
В третий раз напишу - ссылки на такие страницы ЕСТЬ! => есть ссылочный вес, который теряется при закрытии таких страниц от индексации.
301 редирект не позволяет отследить источник трафика и делает метки бесполезными. Иначе я просто поставил бы со всех страниц с метками редиректы и не создавал бы этот топик.
Вы не правы. Грамотно сделанный 301 редирект позволяет сохранить источник трафика.
Редирект просто делается в php например. Источник трафика можно сохранить в Cookie или в сессии. Ваша проблема в принципе это не проблема.
Итак по порядку:
1. Я советовался с сертифицированными специалистами GoogleAnalytics и мне ясно дали понять, что на данный момент нет возможности использовать на страницах с метками редиректы. В GA не реализована возможность отслеживания перенаправленного трафика с метками.
2. Я знаю, как исключить из индекса дубли страниц. Как это сделать я написал в первом посте, а так же описал все проблемы, которые при этом возникают.
3. Я не собираюсь измерять ссылочный вес и высчитывать какие-либо формулы его передачи. Задачи расчета каких-то цифр нет.
Mangusten, возможно со временем вы поймете для чего нужен ссылочный вес. И я вполне понимаю, что отсутствие дублей важнее ссылочного в данном случае.
Задача - избавиться от дублей страниц, сохранив при этом ссылочный вес!
Все что вы предлагаете - это либо то, что я уже и так решил и описал в первом посте, либо то что использовать нельзя, по причинам которые я описал выше.
В любом случае я рад, что еще остались оптимизаторы умеющие напрягать моск, а не только покупать ссылки в сапе по шаблонным фильтрам и настраивать проекты в агрегаторах 🚬
Давайте подумаем еще немного, возможно совместными усилиями найдем решение.
так уважаемый, а почему вам мой метод не подходит? будете смотреть статистику не в Гугле, а в отдельном своем файле.
Мое решение позволяет и уйти от дублей (путем редиректа), и сохранить ссылочный вес (за счет редиректа на одну и ту же страницы), ну и статистику вы увидите.
Оранжевый_бродЯга, к сожалению статистику надо смотреть именно в GA, на это есть много причин, парсить статистику в логах никто не будет. И я далеко не единственный и не главный человек, которому нужна статистика сайта.
В принципе теоретическое решение моей задачи было найдено. Мысли вслух помогли :)
Если кому-нибудь это интересно, то было решено попробовать вот что:
На страницах с метками помимо редиректа передавать реферера, а на целевой странице в хедере скриптом этот параметр обрабатывать и вызывать соответствующий код виртуальной страницы GA. Ну а дальше всякими хитрыми монипуляциями настроить правильное отображение всего этого дела в статистике - это уже решаемая задача. Хотя решение совсем не тривиальное и потребует немного поднапрячься в программировании и настройке GA.
Осталось испытать на практике.
Megamozg, ну с вашим то ником любая задача решаема ))))
Другой вариант - использовать директиву Clean-param
Тут мы казалось бы и вес сохраняем и от проблем индексации меток избавляемся. Но не так все просто. Яндекс "склеит" все ссылки с параметрами указанными в этой директиве к одной! и этот один дубль как правило и вылезит вместо главной страницы с ЧПУ в серпе по закону подлости ( ну или по алгоритму яндекса).
Почему вы думаете что основными посчитаются страницы с метками? По логике как раз наоборот, директива создана чтоб избавляться от них. Хотя экспериментов не ставил, утверждать не могу.
А для гугла есть canonical.