dotern

dotern
Рейтинг
135
Регистрация
21.09.2016
Calvinz:
Уважаемые пользователи,

В связи с глобально меняющимся рынком криптовалют и криптовалютного оборудования, меняются условия поставок, сроки и цены на ASIC майнеры.

В рамках п.5 условий пользования Hashflare изменятся условия и цены контрактов SHA-256 и Scrypt. Все изменения вступают в силу с 1 сентября 2017 года.

Новая цена на мощности SHA-256 будет составлять $2.40 за 10 GH/s, а новая цена на мощности Scrypt составит $11.50 за 1 MH/s. Плата за обслуживание и электричество остается неизменной.

Все новые контракты SHA-256 и Scrypt будут заключаться сроком на 1 год с момента активации. Все контракты SHA-256 и Scrypt, заключённые до 01.09.2017, становятся срочными и их действие будет прекращено 31.08.2018.

С наилучшими пожеланиями,
Команда Hashflare.io

Если биток просядет в цене, то как раз через год вернешь вложенное, можно считать, что пирамида схлопнулась.

FladeX:
Перевёл проблемный с точки зрения гугла проект на https. До этого был хороший трафик с яндекса, а вот с гугла его практически не было. После перехода — пошёл явный рост.

На скриншоте показал зелёной линией активацию 301-редиректа с http на https.

так вы сразу уточняйте, были ли формы для ввода паролей?

burunduk:
только там есть пояснение что такое неправильно - разный контент ;)

Вчитался более внимательно: ничего в утвердительной форме не сказано, типа в стиле "может робот будет считать каноникал ошибочным, а может и не будет". ПС никогда не раскрывает алгоритм работы. В той статье сказано, что робот в принципе может отличать, когда вебмастер ошибся и, например, на всех страницах добавил каноническую главную страницу сайта.

К примеру, у меня на сайте точно контент отличается между "дублем" и каноническими, но тайтл одинаковый, и роботы индексируют как мне надо.

burunduk:

а вы так уверенны что всё обходится за один раз?
ну если у вас на сайте 10 страниц, то да за один раз обойдёт, а если много очень много?

А зачем всё за один раз? Мы говорили о внешней ссылке на дубль, так вот робот зайдет на дубль и увидит каноническую страницу и перейдет на нее.

burunduk:
ещё раз, только при условии доступности страницы

P.S. http://www.thesempost.com/google-ignores-canonicals-implemented-error/

В статье написано, что тег каноникал не будет срабатывать, если он неправильно настроен или же если каноническая страница недоступна. По-моему, это и так очевидно. Вот только непонятно, почему вы считаете, что страница должна быть недоступна? Если случился технический сбой, то и дубль будет недоступен. А вообще, если такое и произошло, робот зайдет в следующий раз и добавит в индекс уже каноническую страницу.

burunduk:

да, но далеко не всегда

Далеко не всегда, только если страница была недоступна в тот момент, когда и робота на ней не было. Если робот зарегистрировал ошибку у себя, то она появится в панели вебмастера.

burunduk:
да, так основной там не будет ;)

Робот перейдет по ссылке на дубль, увидит тег каноникал и добавит в индекс каноническую страницу.

burunduk:

недоступность в момент обхода - обычное явление

Эти явления появляются в google search console в разделе "ошибки сканирования", у меня таких явлений нет.

burunduk:
здоровых людей нет - есть не до обследованные ;)

У меня всё в порядке, 5 лет уже в деле))

burunduk:

вариантов куча, от банального сбоя на хостинге, до бага робота и то и другое происходит регулярно :)

Свой сервак, давно уже тесно на хостинге, также стоят системы мониторинга, я так понимаю, вы про сбой всего сервера, а не про недоступность конкретной страницы? Почему может недоступна именно каноническая страница я так и не понял.

burunduk:

а если есть ещё и внешние ссылки на неконаническую страницу, то она гарантированно попадает в индекс

Именно в индекс, то есть в поисковую выдачу? По идее робот должен увидеть, что это дубль другой страницы и только ее добавить в выдачу. А вообще, если что-то и попадет в индекс, то ничего страшного не вижу, долгое время сайт жил без каноникала, да все страницы попадали в индекс, но тем не менее ПС выставляли на самые высокие позиции именно первые страницы статьи.

Sitealert:
Для того, чтобы прописать пару строк в хэдере, нинах не нужен плагин, и не только в джумле.

Он там стандартно стоит, просто включить нужно, джумла продумала этот момент, потому как пагинация также входит в стандартный набор. Вручную прописывал тег alternate, который показывает роботу, что есть такая же страница для мобильных устройств.

burunduk:
а что будет в каноникле на такой странице: site.com/kataloG/avtor/nazvanie-materiala?start=2
или на такой site.com/katalog/avtor/nazvanie-materiala?site1.com&start=2

что окажется в индексе? ;)

на таких страницах плагин джумлы выставляет правильный каноникал, только что проверил (также ответ на сообщение Sitealert, почему лучше включить штатный плагин). А вообще это очередная болезнь дублей на движках, лечится еще одним плагином, который выставляет 301 редирект на подобные страницы и у меня на такие страницы даже нельзя зайти.

burunduk:

а что будет если страница site.com/katalog/avtor/nazvanie-materiala была недоступна при сканировании роботом, а если на неё есть ещё и внешние ссылки

Вот тут не понял, почему она может быть недоступна?

burunduk:
с ним проблем намного больше, начиная с того что его ещё правильно прописать надо и заканчивая тем, что пс его не учитывают если канонический url недоступен и/или "существенно отличается" ;)

Никаких проблем не существует, если правильно настроить и прописать, согласен. Собственно, так в любом деле☝

Вот у меня есть сайт, там статьи очень длинные, каждый материал разбивается на пагинацию, в таком виде:

site.com/katalog/avtor/nazvanie-materiala - url первой и главной страницы статьи, внизу страницы пагинация с такими url:

site.com/katalog/avtor/nazvanie-materiala?start=2 - это вторая страница статьи. Плагин джумлы добавляет на такую страницу тег <link href="site.com/katalog/avtor/nazvanie-materiala" rel="canonical"/> таким образом робот видит эту страницу и имеет доступ к ней, но тег каноникал говорит роботу, что это дубль первой страницы и робот добавляет в выдачу только каноническую страницу.

burunduk:

правильное решение, пагинации быть в принципе не должно на сайте - она не нужна!!!

правильное решение запрет в файле robots.txt
всё остальное как раз будет бредом

Смотря, какой сайт... Если на сайте очень длинные статьи? а под статьей блок ссылок в другие разделы сайта, а также блок полезных материалов по ключам, а еще блок с рекламой или комментариями... Так вот без пагинации пользователь этого всего не увидит.

burunduk:

правильное решение запрет в файле robots.txt
всё остальное как раз будет бредом

Правильное решение - тег canonical. ПС будут видеть все страницы материала и при этом добавлять вес только первой странице, соответственно в выдаче будет первая и единственная страница статьи.

Искал решение и нашел, но только для движка джумла. Если ТС интересно, может написать в личку,покажу как реализовал на своих сайтах.

Stickker:

Кстати может кто в финансовой и новостной нише работает, поделитесь как с трафиком в этом году. Позиции те же а с трафиком беда прям, может произошло разделение по поиску Я и Г.
Всем мира.

по поводу падения трафика всё индивидуально - где-то убывает,где-то прибывает, возможно ваши конкуренты больше работают над сайтом и ваши позиции просто упали

Всего: 911