- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как снизить ДРР до 4,38% и повысить продажи с помощью VK Рекламы
Для интернет-магазина инженерных систем
Мария Лосева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Собственно, сабж. Тема старая.
Смысл этого действа: на сайте производителя есть большое количество страниц под каждого дилера, но на них никакие запросы не посадишь, более того с каждой страницы идет внешняя ссылка на сайт дилера. В итоге имеем стопицот не нужных для SEO страниц, но нужных заказчику.
Понятное дело, что если просто закрыть всё в robots, то вес утекает вникуда, утекает на заблокированную страницу, более того гугл всё равно пытается эту страницу проиндексировать, но не может, в итоге она появляется в сниппете, но контент не доступен гуглботу.
Вопрос 1: Не даст ли гугл по шапке за скрытие ссылок с помощью js или ajax?
Вопрос 2: В статье был рассмотрен метод с помощью AJAX, который выглядит так:
Выглядит круто, и гугл наврядли распознает эти кракозябрики. Только вот непонятно как такое сделать. Подскажите кто шарит в AJAX'е, каким методом это сделано?
Ссылки в формате Base64, только бесполезно это. Google уже давно распознает эти кракозябрики и скрипты, ему браузеры стучат. У Алаева была подобная темка о скриптах для скрытия ссылок
Ссылки в формате Base64, только бесполезно это. Google уже давно распознает эти кракозябрики и скрипты, ему браузеры стучат. У Алаева была подобная темка о скриптах для скрытия ссылок, погугли :)
Может быть и распознает, и браузеры стучат, но станет ли он индексировать новую страницу, ссылка на которую будет стоять именно таким методом, при том условии, что нигде больше ссылка на эту страницу не фигурирует (ни в сайтмапе, ни с других сайтов) и т.д. Если не станет, то есть pagerank не перетекает на страницу, то и фиг с тем, что гугл о существовании этой страницы знает через браузер, лишь бы вес на них не переливал, а сливал его на те страницы, которые в коде выглядят как нормальный <a href="">
---------- Добавлено 18.02.2018 в 21:31 ----------
P.S. Богоносец, Бурундук, подключайтесь :) Без вас никак тут))
что нигде больше ссылка на эту страницу не фигурирует (ни в сайтмапе, ни с других сайтов) и т.д.
Добавлю условия: если нет данных по визитам в ГА, потенциально с Хрома.
Это лютый садомазо в 2018 году высчитывать переливание PageRank :)
1. Если религия не позволяет rel="nofollow", то ссылки можно сделать через <div data-href=""
2. На ненужных страницах прописать в <head>
Гугл никогда не покажет их "запрещен в robots.txt".
Это лютый садомазо в 2018 году высчитывать переливание PageRank :)
Уже ни раз замечал такую штуку, когда допустим на сайте имеется 2000 страниц. А затем заказчик решил добавить еще какие-то страницы: под дилеров, под точки выдачи, под станцию метро или еще что-то. Но если на эти страницы никак не получается посадить семантику, которая имеет хоть какой-то спрос (в данном случае если спрашивают по станции метро, то конечно в таких страницах есть смысл, а если по метро запросов ни в яндексе ни в гугл нет?), то получается, что в индекс добавляется еще 1000 страниц, которые в общей сложности приносят 0 (или около нуля) трафа из поиска. То в таком случае, вес с тех полезных страниц, растекается по новым созданным страницам, и позиции по тем страницам проседают. Поэтому, если хочется увеличить объем сайта, то либо это нужно сопровождать увеличением внешнего ссылок, либо делать так, чтоб пользователь мог видеть эти ссылки, а поисковик (в частности гугл) не мог, либо уговорить заказчика не плодить эти новые страницы.
1. Если религия не позволяет rel="nofollow", то ссылки можно сделать через <div data-href=""
Nofollow позволяет только не индексировать страницу, но вес по таким ссылкам утекает вникуда, как в примере с закрытием в robots
2. На ненужных страницах прописать в <head>
Гугл никогда не покажет их "запрещен в robots.txt".
Если уж и делать так, то делать через <meta name="robots" content="noindex, follow" />, чтобы дать возможность перетакания веса по ссылкам у неиндексируемой страницы. Но сами гугловцы говорят, что если страница долгое время находится в <meta name="robots" content="noindex, follow" />, то вскоре они и follow параметр не будут учитывать, то есть вес перетекать не будет.
Если вы считаете, что PageRank в 2018-ом не существует и это всё "фигня" и более неактуально, то это тема другого разговора в принципе, но мой опыт показывает, что не "фигня". Да, эта тема не работает на сайтах услуг до 100 страниц, но на интернет-магазинах с многотысячным индексом работает, и даже игра с отображаемым количеством страниц пагинаций (или количеством отображаемых товаров на странице), может нормально так подрезать или увеличить трафик, не сразу конечно, а по мере переиндексации всего сайта.
---------- Добавлено 18.02.2018 в 23:00 ----------
Добавлю условия: если нет данных по визитам в ГА, потенциально с Хрома.
У меня нет кейсов на эту тему, то есть если я создам страницу на домене, но не поставлю с других страниц на нее ссылки (и не закину ее в сайтмап), но буду заходить на неё сам из хрома (или скину в аське вам, чтобы вы тоже зашли из хрома), чтобы якобы через гугл через браузер спалил о существовании этой страницы, то я не замечал такого, чтоб эта страница влетала в индекс сама, без ссылок, без сайтмапа, без принудительного добавления через Search Console или Add Url.
Если страница мусорная, то зачем её в индекс загонять?
Keal, обратитесь к первоисточнику http://www.unmedia.ru/sokrytie-ssylok.html
учтите, если url есть в html коде - он проиндексируется, за единственным исключением
фрагмент кода закрыт в комментарий <!-- -->
Если страница мусорная, то зачем её в индекс загонять?
Она не мусорная, она полезная для пользователей. На ней находится адрес точки выдачи, телефон, время работы (пару строк текста, как вы понимаете), и yandex карта вставлена с отметкой этой точки выдачи. Но никакую семантику на такую страницу не посадить, ведь никто не ищет: "Точки выдачи розовых слонов в Мегионе".
Но так как дилерская сеть по стране очень большая, то и точек выдачи очень много получается. И судя по плавному падению трафика (и позиций) с основных категорий и карточек товара, то вижу проблему в перетекании веса.
На ней находится адрес точки выдачи, телефон, время работы (пару строк текста, как вы понимаете), и yandex карта вставлена с отметкой этой точки выдачи. Но никакую семантику на такую страницу не посадить, ведь никто не ищет: "Точки выдачи розовых слонов в Мегионе".
сделайте всего 1 страницу (со статическим url), которая будет формироваться за запросу пользователя
Че-то вспомнился Уральский "Почему ты не отвечаешь на мой ответ?" 😂
https://youtu.be/BsjAzOGe0cI?t=540