Milash

Рейтинг
158
Регистрация
15.06.2010
Должность
on my site
Интересы
Ukraine above all
I was born on January 14

А вообще обновление алгоритма HTTPs прошло в эти даты :-) Так к информации.

Indexing HTTPS pages by default

Thursday, December 17, 2015

At Google, user security has always been a top priority. Over the years, we’ve worked hard to promote a more secure web and to provide a better browsing experience for users. Gmail, Google search, and YouTube have had secure connections for some time, and we also started giving a slight ranking boost to HTTPS URLs in search results last year. Browsing the web should be a private experience between the user and the website, and must not be subject to eavesdropping, man-in-the-middle attacks, or data modification. This is why we’ve been strongly promoting HTTPS everywhere.

As a natural continuation of this, today we'd like to announce that we're adjusting our indexing system to look for more HTTPS pages. Specifically, we’ll start crawling HTTPS equivalents of HTTP pages, even when the former are not linked to from any page. When two URLs from the same domain appear to have the same content but are served over different protocol schemes, we’ll typically choose to index the HTTPS URL if:

It doesn’t contain insecure dependencies.

It isn’t blocked from crawling by robots.txt.

It doesn’t redirect users to or through an insecure HTTP page.

It doesn’t have a rel="canonical" link to the HTTP page.

It doesn’t contain a noindex robots meta tag.

It doesn’t have on-host outlinks to HTTP URLs.

The sitemaps lists the HTTPS URL, or doesn’t list the HTTP version of the URL

The server has a valid TLS certificate.

Although our systems prefer the HTTPS version by default, you can also make this clearer for other search engines by redirecting your HTTP site to your HTTPS version and by implementing the HSTS header on your server.

We’re excited about taking another step forward in making the web more secure. By showing users HTTPS pages in our search results, we’re hoping to decrease the risk for users to browse a website over an insecure connection and making themselves vulnerable to content injection attacks. As usual, if you have any questions or comments, please let us know in the comments section below or in our webmaster help forums.

На одном проекте получил тиц 9! 0->9 работы никакие не велись.

Elena_Designer:
В бинге он по ВЧ выходит. Но дело не в этом, после запуска он был, где-то на 100-м месте по ВЧ, потом резко - бан

в Google при создании новых страниц зачастую, какойнибудь вч ключ имеет скажем 20-50 позицию. Потом через некоторое время исчезает. А потом уже появляется опять. Там свой алгоритм который изучает поведенческие факторы. Никаких мер я не вижу. Тайтл отсреливаеться в поиске.

Ответ такой ждите, и развивайте сайт. И не стоит надеяться что сайт вылезет в топ сам по себе по ключу например "фото девушек" или просто "фото".

Действует сразу, снимается после апдейта.

Ручной фильтр, - означаете, что робот нашел что то, что не понравилось, дал команду асессору, который перепроверил и нажал кнопку. Насколько я знаю снимается как в ручном так и автоматическом режиме, после устранения проблемы.

Тут все от ситуации зависит, и от того что делали. Ссылки покупали, или злостным клоакингом занимались с дорвеями.

Вы его в сентябре-октябре запустили, и хотите что бы у вас топ был по ВЧ ключам?

Динамика изменения позиции по витальному запросу (уникальное название компании), причем и сайт еще трастовый :-) Покупных нет, все естественно. Имхо мировой бренд.

1-100-1-100-1-100

Я уже ничему не удивляюсь))))

Я уже +-100 в Яндекс нормально воспринимаю. Если уникальное название компании прыгает 1-100-1 - это Яндекс!

LeonCrab:
А почему бы и нет ;)

Хотя лучше подождать пятницы :)

Мы глубоко изучим качество сайтов, и дадим рекомендации :-)

vetiver:
это к гуглу.. а вообще, его отменили ...

Кто отменил Google?

Давно что про апдейт PR никто не писал.

Всего: 748