Достоверность или недостоверность ИНН – это может быть и не важно, да только вот надо вводить реальный ИНН. В россии он там как-то хитро сделан, что можно легко проверить его существование (сумма каких-то чисел самого ИНН зашифрована в нем). Думаю, у американцев так же.
Узнать чей-нибудь ИНН можно на сайте налоговой или судебных приставовов. Например, соседа)) А когда к нему придут с обыском и с собаками и будут выпиливать дверь, вы об этом узнаете первым и успеете переехать!
Почитал руководство гугла. Вот уроды! Без ошибок – это у них значит ошибки ЕСТЬ, но допустимые. Написали бы тогда понятно, типа "Сойдёт". А то написали "без ошибок", и думай что хочешь. Значит когда страницы росли, была какая-то ошибка.
Пример
Предположим следующее:
В этом случае:
Вот я поржал от души один раз
"Александр из Хабаровска заказал уромин"
Лучше по-другому, чтобы вылетал чат "братан здорово, я тут заказал уромин, стоит как в 16 лет, рекомендую!" И чтобы он тебе написал, а ты ему дальше нахваливал от лица этого Александра.
Что-то совсем неувязка:
Статус:"Нужно увеличить скорость" -> Тип:"Проблема с CLS: значение показателя выше порогового (0,1). Устройство: мобильные устройства."
Они случайно CLS с FCP не перепутали? т.е., рекомендуют увеличить скорость там где макет "поехал" из-за кривой верстки?
Ну может быть логика в том, что увеличив скорость, никто не заметит смещения макета! Ведь если рассудить по существу, то когда страница только-только открывается, на ней стилей еще нет, тупо текст, а потом хренак стили накладываются и все встает по своим местам. Но так как это происходит быстро, то никто и не заметит.
как чётко подмечено...
это не опечатка.
У вас так получилось, потому что знак ! в адресе отвечает за параметр _escaped_fragment_=
Он нужен, чтобы выводить всю инфу на странице. Например, у вас интернет магазин, вы выводите сразу 20 товаров, а их у вас там 1000. Они догружаются один за другим при прокрутке. Робот их не видит. А чтобы поисковик о них знал, ему надо передать страницу с полным списком товаров. Обычно добавляют в адрес _escaped_fragment_=, ну а ! является синонимом этого параметра. Я думаю, связано именно с этим.
В вашем случае, яндекс пытается получить полную версию страницы, но сперва пытается просканировать без _escaped_fragment_=
Надеюсь, я понятно объяснил, хотя сам на 100 процентов в деталях не разбираюсь в этом. Гуглите _escaped_fragment_
Урл с "!" не может существовать без его родителя, поэтому он ссылается на копию без "!". А она не работает у вас. Несмотря на то, что и самой страницы с !, которая ссылкается на "без !" не существует, ссылка всё равно есть. Так что здесь никакой ошибки яндекса нет, это целиком ваш косяк.
Такая же проблема была, как у топикстартера! Вообще проклятье. Но там действительно был косяк (не закрыл тег <head>).
Однако индексировался сайт все равно очень вяло. Подумал дело в домене, зарегистрировал новый, все там переделал. Индексировался, появлялся в поиске, но результаты такие же вялые были! Сканировал по несколько страниц в день и все. А мне нужно было около 10 тысяч. Он их видел!!!! но не заходил!!! Они были "обнаружено, исключено". Притом даже не понятный какой-то статус. Вроде как ГОВНО, но сам его даже не видел. Заочно обосрал и не хотел заходить.
В итоге нашел решение. Бесплатное. Страницы заходят на ура пачками. Но тем не менее, трафик идет с этих страниц все равно идет слабый…
Но есть и платное решение проблемы. Телеграм-бот 1 рубль за ссылку. Называется WebMaster BOT
Я знаю, как он работает. Поэтому и могу делать для себя индексацию бесплатно.
Другое дело, что вроде как гугл сканирует 2 разными ботами: один сканирует код для добавления в выдачу, а другой проверяет оптимизацию под мобильные. Вот пока не знаю, как заставить проверять оптимизацию. Мой способ рассчитан только на добавление в индекс, без проверки оптимизации. Но его не скажу, потому как это ценная информация. Я был бы рад, если бы мне кто-то подсказал хотя бы полгода назад. Но до всего приходится докапываться самому.
Однако если не хватает фантазии и знаний, то этот бот очень поможет. Когда я добавил первые 100 страниц, робот гугла стал кушать другие страницы по ссылкам на тех первых страницах (правда потом потух). Как минимум, хуже не будет. Метод абсолютно белый, просто о нем мало кто знает, и мало информации. А где она есть – половины важных деталей просто нет.
Кстати, проверка адсенс не помогла. Сам бот очень вяло индексирует новые сайты! Просто как эдвард бил.
Добавление через вебмастер по 10 штук в день, со светофорами, гидрантами и пешеходными переходами, и ожиданиями проверок – это вообще треш! Но я и это делал, пока не научился делать по-другому. Но у альтернативного способа тоже есть ограничения, поэтому нужно много аккаунтов и запариться со скриптами.
P.S. пока писал этот пост, у меня созрела мысль, как заставить гугл проверять на mobile friendly. Все получилось, но поможет ли это – покажет время. Однако, вы об этом не узнаете)) Ибо кто вам скажет.