Jet D.

Рейтинг
471
Регистрация
08.12.2008
J-ran:
Доры должны тонуть в общей массе сайтов, мимикрировать, а не выделяться. Чтобы какой-нибудь ушлый индус не выщелкнул все твои пачки по сигнатурам :)

Если бы были массово эти "сигнатуры" - давно бы вычистили. А мимикрируют уже лет 5 как с разной степенью успеха.

Xubart:
Ребят, а можете глянуть один сайт: линк.
Внизу текст прямо под баден - писали явно под Гугл.
Не смог найти как прячут от Яндекса, но прячут явно, т.к. по точному вхождению Яндекс не видит, хотя страница в ТОПе и в коде текст есть.


В то время как ГУГЛ выводит отлично.

Xubart, какой именно текст?

У меня все что внизу отображается - все проиндексировано и ищется по точному вхождению.

Biomusor:
Укажите ссылку на официальный сайт, и поставьте загрузку архива с оф сайта разработчика. Не можете поставить на оф сайта, то на mega (облако) архив киньте. но лучше оф сайт)

Это не панацея ни разу.

zaxavar:
Они создали ГС, посвященный конкретно этому архиву, там всего 2 страницы, создан месяц назад и накатали жалобу на самого разработчика, типа это он нелегально распространяет контент без разрешения.

К сожалению, массовая история в последнее время. А потом малвару таким образом распространяют.

plasticsurgery:
Такого шлака, как сейчас в ТОПе гугла, никогда не видел. На яндекс перешел пока. Куда гугл катится? Что делать, господа?

Да, тоже замечал. Но не впервой, утрясется со временем.

korvin1000:
У меня так же просадка, и по позициям и по трафику.
Но есть еще. Search Console сообщает в разделе "Покрытие"
Проиндексировано около 100 страниц, несмотря на блокировку в файле robots.txt.
Проверьте у всех так?
Может после перехода на https роботс перестает работать и всех дубли!
Если кто знает посоветуйте!

Во-первых вот что сам гугл пишет:

Файл robots.txt не предназначен для блокировки показа веб-страниц в результатах поиска Google. Если на других сайтах есть ссылки на вашу страницу, содержащие ее описание, то она все равно может быть проиндексирована, даже если роботу Googlebot запрещено ее посещать. Чтобы исключить страницу из результатов поиска, следует использовать другой метод, например защиту паролем или директиву noindex.
Страница, заблокированная для поисковых роботов, все же может быть обработана, если на других сайтах есть ссылки на нее
Googlebot не будет напрямую индексировать контент, указанный в файле robots.txt, однако сможет найти страницы с ним по ссылкам с других сайтов. Таким образом, URL, а также другие общедоступные сведения, например текст ссылок на страницу, могут появиться в результатах поиска Google. Чтобы исключить появление URL в результатах поиска Google, необходимо защитить файлы на сервере паролем или использовать метатеги с директивами по индексированию (либо полностью удалить страницу).

И все же проверьте корректность указания директив в robots.txt - https://support.google.com/webmasters/answer/6062598

LEOnidUKG, да, все в рамках их стратегии замыкания экосистемы на себя.

Все меньше и меньше трафика раздают сторонним проектам.

Скоро еще почистят выдачу от "конкурентов" по ЕГЭ под известным предлогом :)

Glueon, да, но это очень косвенно, 150 отсчитывать таким образом - сомнительная затея. Только за счет кэширования, даже без учета ботозапросов погрешность зашкаливать будет.

И уже тем более, хиты, про которые тут какой-то комментатор выше писал, таким образом считать никак не получится технически.

Да и получается тогда любой сайт там снести можно, пару раз сделав проверку на хосттрекере и т.п. сервисах.

Наверняка косвенно считают (может и тупо по сторонним источникам), но 150 хитов - цифра, явно имеющая мало отношения к реальности, что подтверждается многочисленными дорвейщиками.

DaoDog:
Я с ней не воркал, но написано что работает с физиками у них же на сайте.

Во-первых, еще не работает.

Во-вторых, это для самозанятых (в юридическом смысле). Чтобы считаться самозанятым, нужно зарегистрироваться в реестре и перейти на соответсвующий режим налогообложения. Сделать это могут только няни, сиделки, репетиторы, уборщики, гиды и некоторые другие лица и только в некоторых пилотных регионах.

Платежи для самозанятых
Готовим решение для физических лиц: можно будет принимать платежи через Яндекс.Кассу по договору, на счёт в банке, картами и не только.
Протуберанский:
Проклюнулась зона .me, требуют 18.99
Что не такая уж зверская цена для него, как мне кажется...

Да, на me неплохая цена.

P.S. Из новостей, moniker пишут, что сегодня обещают перенос .org закончить. А вот по .top и .gdn там проблемы, никак не договорятся с реестрами (те требуют от них "standart transfer fee"), и похоже надолго зависло. Это как раз те домены, которых у них огромное количество.

P.P.S. Кто в курсе, какие домены ушли в ResellerClub? Я так понимаю, что это домены от Afilias (который с Alpnames договор заранее разорвал), .eu, какие еще?

SeVlad:
Так где можно купить "взять" домен-другой за один бакс с такими же условиями продления?

Никто в здравом уме вам продавать "давать" продление доменов в разы ниже себестоимоти, тем более, за бакс, не будет. Флаг в руки, пользуйтесь и дальше фриномами с обратными ссылками, продолжайте думать, что все как и вы, и используют домены для "показа прототипов и обучения нубов". Спорить с патологическими любителями халявы с сознанием из 90-x бесполезно.

SeVlad:
Кавычки плохо видны? Или соображалка подводит?

Правду говорят, что нищебродство с уровнем воспитания кореллирует.

Всего: 6611